ES2275748T3 - Metodo y aparato para mejorar la ejecuccion del operativo de una vehiculo. - Google Patents

Metodo y aparato para mejorar la ejecuccion del operativo de una vehiculo. Download PDF

Info

Publication number
ES2275748T3
ES2275748T3 ES01981576T ES01981576T ES2275748T3 ES 2275748 T3 ES2275748 T3 ES 2275748T3 ES 01981576 T ES01981576 T ES 01981576T ES 01981576 T ES01981576 T ES 01981576T ES 2275748 T3 ES2275748 T3 ES 2275748T3
Authority
ES
Spain
Prior art keywords
operator
vehicle
execution
data
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES01981576T
Other languages
English (en)
Inventor
Judith Lee Gardner
Robert Michael Gardner
Donald Remboski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/US2001/032140 external-priority patent/WO2002030986A2/en
Application filed by Motorola Inc filed Critical Motorola Inc
Application granted granted Critical
Publication of ES2275748T3 publication Critical patent/ES2275748T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/052Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles characterised by provision for recording or measuring trainee's performance
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0808Diagnosing performance data
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention

Landscapes

  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Educational Technology (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Vehicle Body Suspensions (AREA)

Abstract

Un método de mejorar la ejecución del conductor a través de realimentación de la ejecución; comprendiendo el método las etapas de: recibir los datos de operación del vehículo (112) desde el vehículo relativos a la condición de operación del vehículo; monitorizar una parte del interior del vehículo y recibir los datos de actividad del operario (118) desde la parte del interior del vehículo relativos a las actividades del operario (108) dentro de la parte interior; recibir los datos del entorno del vehículo (114) desde el entorno exterior del vehículo; monitorizar al operario (108) y recibir los datos de las condiciones del operario (116) relativos a la condición del operario (108); grabar la evaluación de la ejecución del operario en base a los datos de operación del vehículo (112), los datos de actividad del operario (118), los datos ambientales del vehículo (114) y los datos de condición del operario (116); caracterizados por la evaluación de la ejecución del operario siendo el valor de laejecución del conductor la evaluación de la habilidad del operario para activar la operación de un vehículo en comparación con las buenas prácticas conocidas; almacenar la evaluación del operario a bordo del vehículo; y informar al operario de la evaluación de la ejecución del operario para mejorar la ejecución del conductor.

Description

Método y aparato para mejorar la ejecución del operario de un vehículo.
Campo de la invención
La presente invención se refiere en general al campo del accionamiento de vehículos, y más en particular, a un método y un aparato para evaluar y mejorar la ejecución del operario de un vehículo.
Antecedentes de la invención
El aluvión de información que alcanza a los conductores - telemática, entretenimiento, advertencia de colisión y otros - requiere una nueva aproximación a la interfaz operario - vehículo. En la actualidad, información tal como instrucciones de navegación, teléfono celular y mensajes de correo electrónico, advertencias de tráfico, opciones de entretenimiento, monitorización de las condiciones del vehículo, etc.), se presentan al operario del vehículo de forma asíncrona sin tener en cuenta como se pueden estar demandando tareas de conducción en un momento dado. Por ejemplo, puede encenderse una luz de indicación de "chequeo del motor" entre los instrumentos al mismo tiempo que el conductor está poniendo un CD dentro del sistema de sonido estéreo, mientras que la pantalla del sistema de navegación presenta un cambio de dirección próximo y da una descripción verbal de ese cambio de dirección, así como una llamada del teléfono celular viene dentro del vehículo y el conductor está ocupado en una conversación con uno o más pasajeros.
Los seres humanos tienen una capacidad limitada para percibir el entorno, para atender a los elementos del entorno, procesar cognitivamente los estímulos tomados dentro, extraer los significados adecuados de las percepciones, y actuar de forma apropiada bajo esos significados percibidos. Además, hay una gran variación entre la población conductora tanto en las capacidades naturales como en las adquiridas para conducir. De este modo, los operarios de vehículos están sujetos a confusiones, distracciones y a desconocimiento, lo cual se agrava por el ataque abrumador de estímulos a los que ahora están sujetos mientras actúan un vehículo. El entrenamiento, la experiencia, y la tecnología pueden usarse para mitigar la confusión, la distracción y la ignorancia. Desafortunadamente, en los Estados Unidos hay poco entrenamiento formal o informal en la experiencia involucrada en la conducción, más allá del periodo que la gente aplica para la obtención de sus licencias. Los programas de entrenamiento de conductores no han probado ser particularmente efectivos, ni se están entrenando continuamente a lo largo de su carrera de conducción. De hecho, en los Estados Unidos, en particular, la mayoría de la gente piensa que la conducción es un derecho más que un privilegio. Además, estudios muestran que la mayor parte se consideran a sí mismo buenos conductores y a "las otras personas" como las que causan problemas. A menos que y hasta que tenga lugar un cambio cultural o legal que estimule a los conductores a desear mejorar su técnica de conducción, parece que las soluciones tecnológicas diseñadas para minimizar la confusión, la distracción y la ignorancia tienen el mejor potencial para mejorar la seguridad del sistema de transporte de las autopistas, sistema que probablemente se hará mas congestionado y, con la pequeña o nula expansión de la infraestructura de autopistas que probablemente ocurrirá, en consecuencia se hará más peligroso en el futuro.
Para solucionar estas y otras consideraciones de seguridad, se ha propuesto un sistema de seguridad integrada sobre un modelo de transición de estados. El concepto subyacente es un modelo de "jerarquía de peligrosidad" que avanza a través de una serie de estados cada uno de los cuales representa una valoración del peligro de una colisión inminente en base a la información procedente de los detectores de objetos externos y de los sensores en el interior de los vehículos. Los estados son "estado de conducción normal", "estado de prevención", "estado de colisión evitable", "estado de colisión inevitable", "estado de post-colisión". Los sensores y los algoritmos de fusión de datos combinan información procedente de los sensores y determina el grado en el que existe el peligro de colisión. Si el sistema detecta el peligro de una colisión emite advertencias al conductor o, en algunas situaciones, toma el control del vehículo e inicia el frenado automático, cambio automático de carril, u otra forma de control del vehículo. Este sistema representa un intento de traer información de sensores previamente sin relación dentro de un estado integrado desde el cual puede realizarse una inferencia útil acerca del peligro de colisión y advertir al conductor, o puede usarse el control actual del vehículo para impedir completamente o mitigar el daño de una colisión.
Se ha propuesto también un sistema que proporciona una monitorización extensiva del vehículo y la situación de tráfico para priorizar la presentación de información al conductor. El objetivo de este sistema es gestionar el flujo de información al conductor mientras se tiene en cuenta la tarea de conducción, condiciones, y las capacidades físicas, de percepción y cognitivas del conductor. El apoyo proporcionado está diseñado para mejorar el enfoque del conductor y reenfocar la atención de un conductor distraído de modo que emprenda la navegación, maniobra y control del vehículo. La arquitectura del sistema global incorpora un analizador/planificador que acepta entradas de sensores, incluye un repertorio almacenado de situaciones de conducción, y graba información acerca del conductor. Adicionalmente, el sistema incluye un controlador de diálogo para la gestión de las comunicaciones con el conductor. El sistema también monitoriza al conductor e integra las condiciones del conductor dentro de las decisiones realizadas por los sistemas de advertencia y control.
Ninguno de los sistemas existentes emprende la monitorización de un rango de los datos de sensor, ni proporcionan evaluación de la carga cognitiva del conductor. Tales sistemas fallan además al considerar que la actividad del conductor en la cabina no está directamente relacionada con la conducción, tareas tales como la apertura y cierre de ventanas, sintonización de la radio, etc. Por ejemplo, los sistemas existentes o no monitorizan al conductor en absoluto, o monitorizan al conductor en relación a un comportamiento de "modelo" estático en oposición a la ejecución dinámica actual y/o hábitos del conductor. De este modo, estos sistemas no proporcionan información en sincronización con la tarea de conducción, ni intentan minimizar las distracciones ni intentan redirigir la atención de un conductor distraído a eventos críticos.
Adicionalmente, los sistemas previos que han intentado evaluar la ejecución del conductor se han limitado a la capacidad de seguir el carril, esto es, evalúan cómo de bien el conductor mantiene la posición del vehículo en relación con los bordes del carril para generar un parámetro representativo de la capacidad de seguimiento del carril del conductor. El parámetro se determina periódicamente, y si cae por debajo de un determinado nivel establecido, se presenta una advertencia al conductor, tal como un zumbador o una indicación visual. El sistema está limitado en que sólo proporciona evaluación del seguimiento del carril y no tiene en cuenta desviaciones de carril deliberados tales como para evitar un peligro, no está integrado para recibir un espectro de entradas del sensor, y no incluye la condición del conductor ni los datos de actividad del conductor. Aunque tal medida identificará el control degradado del vehículo, es cuestionable si identificará distracciones cognitivas o mentales.
Además, ninguno de estos sistemas proporciona al conductor la realimentación relativa a su ejecución global, ni proporcionan realimentación relativa a la mejora de la ejecución del conductor.
El documento WO 92/03803 (preámbulo de la reivindicación 1 respecto a la reivindicación 15) describe un sistema en el cual la información relativa al comportamiento del conductor se almacena en la licencia de conducción para permitir la realización de una determinación de la seguridad del tráfico.
El documento WO 00/07150 describe un sistema en el cual se usa información del vehículo para realizar una determinación del estilo de conducción de los conductores.
De este modo hay una necesidad de proporcionar información a los operarios de vehículos en sincronización con la tarea de conducción de modo que mejore el enfoque del operario, minimice las distracciones y asegure la capacidad del operario de asimilar y usar la información. Hay una necesidad adicional de redirigir la atención de un operario distraído de actividades no críticas de la misión para priorizar la información y/o las tareas necesarias para mantener la operación segura del vehículo. Hay una necesidad adicional de proporcionar una realimentación al operario del vehículo en relación con la ejecución y proporcionar una realimentación adicional diseñada para asistir al operario en la mejora de la ejecución.
Breve descripción de los dibujos
La invención se describe en términos de varias realizaciones preferidas con referencia a las figuras adjuntas en las cuales similares referencias numéricas se refieren en todas partes a elementos similares.
La Fig. 1 es un diagrama de bloques de un sistema de evaluación de la ejecución del operario de acuerdo con una realización preferida de la invención.
La Fig. 2 es un diagrama de bloques que ilustra una interfaz del conductor con el vehículo de acuerdo con una realización preferida de la invención.
La Fig. 3 es una ilustración de un diagrama de bloques de un dispositivo de comunicación sin hilos de acuerdo con la realización preferida de la invención.
La Fig. 4 es un diagrama de flujo que ilustra las etapas de un método de evaluar la ejecución del operario de un vehículo de acuerdo con una realización preferida de la invención.
La Fig. 5 es un diagrama de flujo que ilustra las etapas de un método de mejora de la ejecución del operario de un vehículo de acuerdo con una realización preferida de la invención.
La Fig. 6 es un diagrama de flujo que ilustra las etapas de un método de sintetizar una respuesta a las condiciones de operación del vehículo de acuerdo con una realización preferida de la invención.
La Fig. 7 es un diagrama de flujo que ilustra las etapas de un método de proporcionar realimentación al operario del vehículo de acuerdo con una realización preferida de la invención.
La Fig. 8 es un diagrama de flujo que ilustra las etapas de un método de configurar un estado de servicio de un dispositivo de comunicación sin hilos de acuerdo con una realización preferida de la invención.
Descripción detallada de las realizaciones preferidas
Un sistema está adaptado para evaluar la información de entrada al operario del vehículo, para priorizar la información en base a varias condiciones relativas a la operación del vehículo, el entorno de funcionamiento, la actividad del operario y las condiciones físicas del operario, y proporcionar al operario la información más pertinente para un conjunto de condiciones dadas. Como se usa a lo largo de esta especificación, los términos operario de vehículo y conductor son usados de forma intercambiable y ambos se usan para referirse a la persona que opera el vehículo en el modo en el que se intenta que el vehículo se opere.
En otra realización de la invención, el sistema monitoriza varias fuentes de datos, incluyendo el accionamiento del vehículo, el entorno de operación, la actividad del operario y la condición del operario, y proporciona una evaluación de la ejecución del operario. Al hacer esto, el sistema puede adicionalmente identificar el operario del vehículo en particular de modo que la evaluación puede realizarse en relación con las preferencias del operario, ejecución de conducción pasada y hábitos.
El sistema es además adaptable para asistir al operario a mejorara su ejecución. El sistema monitoriza varias fuentes de datos, incluyendo el accionamiento del vehículo, el entorno de operación, la actividad y condiciones del operario, sobre un periodo de funcionamiento y graba la ejecución del operario. La ejecución puede compararse con las buenas prácticas aceptadas, y puede proporcionarse un informe al operario indicando como es la ejecución del operario en comparación con las buenas prácticas aceptadas y/o con la ejecución de la conducción previa del operario y/o el comportamiento habitual. El sistema puede grabar la ejecución del operario sobre varios periodos de operación, y proporcionar comparaciones de la ejecución del operario desde un periodo hasta otro periodo.
El sistema está adaptado además para actuar en respuesta a una evaluación del accionamiento del vehículo, el entorno de operación, la actividad del operario y las condiciones del operario para impedir o mitigar una situación problemática asociada con la operación del vehículo.
Refiriéndonos a continuación a la Fig. 1, el sistema 100 incluye un módulo de fusión de sensores 102, un módulo selector de respuestas 104 y un generador de acciones 106. El módulo de fusión de sensores 102, el módulo selector de respuestas 104 y el generador de acciones 106 se ilustran en la Fig. 1 como elementos separados por motivos de claridad y debate. Se apreciará que estos módulos pueden estar integrados en un módulo único. Además, se apreciará que cada uno de estos módulos, o un módulo integrado, puede incluir un dispositivo de procesamiento adecuado, tal como un microprocesador, un procesador digital de señal, etc., uno o más dispositivos de memoria incluyendo estructuras de datos configurados adecuadamente, e interfaces para acoplar el sistema 100 a varios sensores del vehículo y hacer interfaz con un controlador 108.
El módulo de fusión de sensores 102 recibe datos de numerosas fuentes dentro y alrededor del vehículo. Como se ilustra en la Fig. 1, el módulo de fusión de sensores 102 recibe datos de la operación del vehículo 112, datos del entorno del vehículo 114, datos de las condiciones del conductor 116 y datos de la actividad del conductor 118.
Los datos de accionamiento del vehículo 112 abarcan datos producidos por los diversos sensores del vehículo. Los sensores de monitorización de las condiciones del vehículo son penetrantes en el automóvil. Estos sensores monitorizan numerosos parámetros tales como parámetros de funcionamiento del motor, velocidad del vehículo, velocidad de transmisión y de las ruedas, aceleración del vehículo en los tres ejes, función del chasis, función de control de emisión, etc. Estos sensores pueden proporcionar también datos relativos a diagnósticos del vehículo.
Los datos del entorno del vehículo 114 abarcan datos relativos al entorno en el que está funcionando el vehículo, por ejemplo, las condiciones de la carretera, las condiciones del tráfico, el clima, etc. Los datos del entorno del vehículo 114 pueden proporcionarse mediante sensores que también proporcionan datos de la operación del vehículo 112. Por ejemplo, la superficie de la carretera y la tracción estimadas pueden proporcionarse por el frenado antibloqueo, el control de tracción y los sensores del sistema de control del chasis. La localización del vehículo puede proporcionarse por un sistema de navegación de a bordo utilizando la tecnología del sistema de posicionamiento global (GPS), o bien la información de localización puede proporcionarse por un dispositivo de comunicaciones sin hilos (por ejemplo, un teléfono celular) y la red de comunicaciones sin hilos asociada. Un radar, láser, sistemas de ultrasonidos y video pueden proporcionar un mapa de objetos próximos al vehículo y su movimiento relativo al vehículo. El clima y la hora del día pueden también monitorizarse directamente o derivado de las fuentes reportadas.
Los datos de las condiciones del conductor 116 y los datos de actividad del conductor 118 pueden proporcionarse mediante diversos sistemas de monitorización de cabina. Los sensores de los asientos y/o sensores de infrarrojos pueden detectar el número y localización de pasajeros en el vehículo. Sensores del suelo y el volante de dirección pueden indicar la posición de los pies y las manos del conductor. Sensores de video o imagen pueden monitorizar los movimientos de la cabeza, el cuerpo, las manos y los pies del conductor, y los estados operativos y también puede monitorizarse el uso por el conductor de los sistemas de entretenimiento y telemáticos.
Como se apreciará, existen numerosas fuentes de datos dentro y alrededor del entorno del vehículo, que pueden ser utilizados por el sistema 100. Anteriormente se han descrito varios tipos de datos, otros se describirán en conexión con el funcionamiento del sistema 100, e incluso otros no referenciados específicamente en este documento pueden usarse sin apartarse del alcance y el espíritu de la invención. Se apreciará que como las nuevas tecnologías introducen nuevos tipos y fuentes de datos y nuevos tipos y fuentes de información dentro del vehículo, el sistema 100 puede adaptarse para utilizar estas fuentes adicionales de datos para gestionar cómo se presentan las fuentes de información existentes y las nuevas al conductor.
En otras palabras, el sistema 100 monitorizará cualquier cosa de naturaleza técnica que el conductor pueda tocar o usar en la cabina del vehículo de modo que el sistema 100 conozca tanto como sea posible acerca de lo que está haciendo el conductor en cada momento dado. Además, el uso de la tecnología de video o imagen, sensores de asientos y micrófonos en la cabina permite al sistema 100 determinar la localización y la posición del conductor, el nivel de ruido, y la presencia de pasajeros y otras fuentes potenciales de distracción. El radar, el láser, video y sensores de infrarrojos desplegados a lo largo del perímetro del vehículo monitorizan el tráfico y las condiciones climáticas, obstáculos, marcas de los carriles, etc. Las condiciones presentes del conductor y la ejecución de conducción se infieren a partir de medidas directas, tales como el video, y a partir de la comparación de la ejecución actual con la ejecución pasada y las prácticas de buena ejecución conocidas.
Además para obtener datos a partir de una diversidad de fuentes, el sistema 100 hace interfaz con el conductor/operario del vehículo 108. Mientras que opera el vehículo, el conductor 108 está ocupado en varias acciones diferentes, tales como, pero ciertamente sin limitación, actuar sobre el acelerador o los frenos, girar el volante de dirección, comprobar los puntos ciegos, ajustar la radio, recibir una llamada en el teléfono celular, obtener información de navegación, llevar una conversación con un pasajero, tranquilizar a los chicos en el asiento trasero, etc. Cada una de las acciones del conductor, que con propósito de debate se ilustran en la caja 110 en la Fig. 1, se realimentan al módulo de fusión de sensores 102 a través de los sensores. Adicionalmente, como se describirá con mayor detalle, el sistema 100 presenta información, acciones y tareas del conductor 108 a través del generador de acciones 106. Esta operación en bucle "cerrado" puede continuar para una situación dada hasta que la situación se resuelve. En un ejemplo muy limitado para ilustrar el concepto, el sistema de gestión del tren de transmisión en el vehículo puede generar pronto una indicación del cambio de aceite. Previamente, esta indicación causará que una lámpara de "servicio motor" o "cambio del aceite motor" se ilumine en el panel de instrumentos del vehículo tan pronto como el sistema de gestión del tren de transmisión genere la indicación. La indicación luminosa que aparece repentinamente en medio de los instrumentos puede distraer temporalmente al conductor. Si en el instante en que la lámpara se ilumina el conductor está tratando el tráfico o de otra manera en una situación que requiere la total atención en la tarea de conducir, la distracción puede ser peligrosa. De acuerdo con las realizaciones preferidas de la invención, los datos no críticos relativos al cambio de aceite motor pueden almacenarse hasta que la condiciones permitan que la información se presente al conductor en un momento en el que con menos probabilidad se cree una situación peligrosa. Con esta consideración, el sistema 100 actúa continuamente tomando los datos y re-temporizando su presentación al conductor. Además, el sistema 100 evalúa continuamente la información proporcionada al conductor para determinar cuándo y cómo se proporcionan al conductor de la mejor manera. Esta operación del sistema 100 puede ilustrarse con un ejemplo adicional. Una alarma de bajo combustible puede que no sea un elemento de información crítico en relación con las condiciones actuales de conducción pero puede convertirse en un elemento de información crítico si el conductor está próximo a pasar la última estación de servicio, como el sistema 100 se informa por el sistema de navegación a bordo, dentro del rango de sobra del vehículo.
Refiriéndonos a la Fig. 2, existen varias interfaces entre el conductor 108 y el vehículo y por lo tanto con el sistema 100. A continuación se debaten diversas interfaces, y pueden incluir identificación del conductor 200, instrumentación y alarmas 202, controles del vehículo 204, sensores de las condiciones del conductor 206 y sensores de la actividad del conductor 208.
Debido a la amplia diversidad en los niveles de experiencia en los seres humanos, el tamaño físico, y las preferencias personales y gustos, hay muchas situaciones en las que sería útil para el sistema 100 "reconocer" quien está intentando entrar y/o conducir el vehículo. Con esta consideración, la interfaz de identificación del conductor 200 puede estar configurada como una interfaz de usuario portátil personal (PPUI). Una PPUI puede existir de muchas formas, pero en esencia captura preferencias, ejecución y datos de hábitos asociados con un conductor en particular. La PPUI puede estar codificada sobre una tarjeta inteligente o incorporada en el vehículo para su activación por un lector de huellas dactilares, sistema de reconocimiento de voz, sistema de reconocimiento óptico u otros
medios.
En diversas realizaciones, la PPUI puede funcionar como sistema de seguridad garantizando o limitando el acceso al vehículo o al sistema de ignición del vehículo, e impide el acceso a personas no autorizadas o desactiva el vehículo cuando una persona no autorizada intenta conducir el vehículo. La PPUI puede también capturar las preferencias del conductor en lo que se refiere a varias características de seguridad activa. A través de la PPUI (interfaz de identificación del conductor 200), el sistema 100 está informado de las preferencias del conductor. Por ejemplo, el conductor puede seleccionar qué tipos y bajo qué condiciones y cómo se comunican las alarmas. Por ejemplo, un conductor puede preferir recibir una alarma cada vez que el sistema 100 detecta un avance demasiado pequeño en relación con la velocidad del viaje. Para otro conductor, puede percibirse un nivel de alarma elevado como una molestia y en consecuencia ignorar las alarmas y/o que el sistema 100 se desactive. Similarmente, un conductor puede desear tener acceso inmediato a las llamadas entrantes al teléfono celular; mientras que otro conductor puede querer tener sólo ciertas llamadas a establecer. La PPUI como parte de la interfaz de identificación del conductor 200 permite a cada operario del vehículo establecer elecciones por anticipado.
La PPUI puede también funcionar en una mejora de la ejecución del conductor y/o herramienta para ejecutar restricciones de conducción. La PPUI puede usarse para monitorizar la ejecución de la conducción y reportar a la autoridad de ejecución de tráfico. Esto permitiría retener los privilegios de conducción a los infractores habituales de tráfico de forma monitorizada por un juzgado. La ejecución de la conducción puede grabarse para revisión posterior, y se describe en este documento un método para mejorar la ejecución del conductor. Adicionalmente, la PPUI puede usarse para implementar controles sobre el uso del vehículo. Por ejemplo, un padre puede restringir las distancias y la localización en la que puede tomarse un vehículo, o las horas del día en las que puede accionarse el vehículo por un conductor de nuevo permiso de conducción. Un empresario puede monitorizar los hábitos de conducción de sus conductores de flota.
En funcionamiento, el sistema 100 se programa para reconocer, en base a los datos recibidos, "situaciones" y "condiciones" que pueden presentarse durante la operación del vehículo. El sistema 100 puede configurarse para actuar, en relación con las prioridades para la presentación de información y los umbrales para los niveles de alerta, advertencia y alarma. La interfaz de identificación del conductor 200 incluyendo la PPUI proporciona al conductor con elecciones relativas a las prioridades, umbrales e interfaces, y funciona para sincronizar las elecciones con el conductor apropiado.
La instrumentación y la interfaz de alertas 202 se usan por el sistema 100 para informar, avisar y en las situaciones apropiadas alertar y advertir al conductor 108. La instrumentación y la interfaz de alertas 202 pueden incluir indicadores visuales, de audio, táctiles u otros indicadores adecuados. Los indicadores visuales pueden incluir relojes, indicadores luminosos, pantallas gráficas y alfanuméricas. Estos indicadores visuales pueden estar localizados centralmente dentro del panel de instrumentos del vehículo, distribuidos alrededor del vehículo, configurados en una pantalla de alertas, integrado con vista posterior y espejos de vista lateral, o de otro modo, dispuestos para dirigir ventajosamente la información hacia el conductor 108. Los indicadores de audio pueden ser zumbadores o alarmas, voz u otras alertas audibles. Las alertas táctiles pueden incluirse usando el sistema de control del chasis para proporcionar bandas de retumbe simuladas, presión de realimentación al volante de dirección o pedales, movimientos del asiento o similares. La actuación de uno cualquiera o más de los indicadores o alertas se controlan por el sistema 100 para sincronizar la temporización de la información tal como se proporciona al conductor.
La interfaz de control del vehículo 204 incluye los controles primarios usados por el conductor para operar el vehículo. Estos controles incluyen el volante de dirección, el pedal del acelerador, el pedal del freno, embrague (si se equipa), selector de marcha, etc. Estos controles pueden incluir una posición adecuada y/o sensores de actuación y pueden incluir además al menos en el caso del pedal del acelerador, el pedal del freno y el volante de dirección la velocidad de entrada y/o fuerza de los sensores de entrada. Sensores adicionales de datos pueden incluir la tasa de derrape del vehículo, velocidad de las ruedas indicando la velocidad del vehículo y la tracción, la presión de los neumáticos, activación y velocidad de los limpiaparabrisas, activación de los dispositivos de desempañar de las ventanas delanteras y traseras, control del volumen del sistema de audio, y sensores de uso de los cinturones de seguridad.
La interfaz de las condiciones del conductor 206 utiliza varios sensores para inferir las condiciones del conductor. Por ejemplo, un conductor alerta hace correcciones en la dirección continuamente para mantener el vehículo en su carril. Mediante la monitorización de los sensores del volante de dirección, el sistema 100 recoge los datos acerca de la frecuencia y amplitud de las correcciones para inferir si el conductor se ha vuelto discapacitado. Los sensores de velocidad pueden también testearse de una forma similar. Los sensores de video u otros sensores de imagen proporcionan una medida directa de las condiciones del conductor mediante la monitorización de criterios tales como la velocidad de parpadeo del conductor y la mirada fija.
La interfaz de actividad del conductor 208 utiliza diversos sensores y tecnología de imagen para determinar la actividad del conductor. Esto es, para determinar si el conductor, además de controlar el vehículo, está ajustando la radio o la calefacción, los controles de la ventilación y el aire acondicionado (HVAC), iniciando o recibiendo una comunicación sin hilos, recibiendo información de navegación, y similares. Estos sensores pueden incluir sensores de presión del asiento para determinar el número de pasajeros en el vehículo, y las actividades de los pasajeros y video u otra tecnología de imagen para observar los movimientos del conductor.
Refiriéndonos de nuevo a la Fig. 1, y como se ha observado previamente, el módulo de fusión de sensores 102 recibe todas las entradas de todos los diversos sensores, incluyendo los de medida de las condiciones del vehículo, los de las condiciones del conductor, los de actividad del conductor y los del entorno de actuación (es decir, el clima, las condiciones de la carretera y del tráfico), y produce un conjunto de condiciones o lista de condiciones maestra. Las condiciones representan el estado discreto actual de cada cosa que el módulo de fusión de sensores 102 está monitorizando. Por ejemplo, la condición de velocidad puede estar en uno de los siguientes estados en cualquier punto en el tiempo: "parado", "lento", "normal", "rápido" y "exceso de velocidad". Los estados se determinan en base a umbrales aprendidos entre los estados y en base a la historia y las buenas prácticas conocidas. El módulo de fusión de sensores 102, dada la lista de condiciones maestra, evalúa las tareas y actividades actuales del conductor, tales como sintonizar la radio, oír los correos electrónicos u otras tareas de distracción potencial, para producir una carga cognitiva estimada del conductor. La carga cognitiva de cada tarea estática puede estar determinada externamente por experimentos controlados con un conjunto de pruebas subjetivas (por ejemplo, sintonizar la radio puede usar el 15,4 por ciento de la atención del conductor). La carga cognitiva total es la suma ponderada de cada una de las tareas individuales. La ponderación puede ser fija o puede cambiar, por ejemplo exponencialmente, con el número de tareas coincidentes.
La lista de condiciones maestra y la carga cognitiva estimada del conductor se proporcionan también al módulo de selección de respuestas 104. El módulo selector de respuestas mira las condiciones, situación del conductor actual y carga cognitiva para determinar si existe un problema y evalúa además la severidad del problema. El módulo selector de respuestas 104 tiene en cuenta además las preferencias del conductor, para elegir una respuesta adecuada a la tarea actual del conductor y prioriza la presentación de alertas, advertencias y otras informaciones al conductor. El módulo selector de respuestas 104 puede incorporar un agente reflejo que usa un árbol de decisión busca tablas para hacer coincidir estados con las acciones deseadas. Alternativamente, puede usarse un agente adaptativo, es decir que aprende, buscando el objetivo. De este modo el módulo selector de respuestas 104 sintetiza y resume los datos de los sensores creando una respuesta correcta a cualquier cambio de condición dado.
En un implementación posible, el módulo selector de respuestas 104 puede incluir parámetros de entrada a un programador que se usa para determinar si un cambio en las condiciones a) crea un problema, b) resuelve un problema, c) incrementa un problema, d) inicia una tarea del conductor, e) inicia una tarea del agente, f) completa una tarea del conductor o del agente, g) cambia la situación o h) es inocuo. La carga cognitiva estimada puede usarse para determinar una urgencia de un problema identificado o si debe iniciarse una respuesta al problema por el conductor o por el agente. Por ejemplo, una llamada entrante al teléfono celular puede dirigirse al conductor si la carga cognitiva estimada del conductor está por debajo de un valor umbral para recibir llamadas del teléfono celular. Si la carga cognitiva del conductor excede el valor umbral para recibir llamadas del teléfono celular, entonces la llamada del teléfono celular puede dirigirse al buzón de voz (es decir, un dispositivo agente).
El selector de respuestas 104 activa el generador de acciones 106 para efectuar la respuesta seleccionada. El generador de acciones 106 puede ser una librería de acciones que el sistema está equipado para realizar, tal como en el ejemplo anterior, dirigir la llamada del teléfono celular al buzón de voz. La librería puede incluir acciones junto con instrucciones, que pueden ser instrucciones software para causar que el procesador asociado actúe, es decir, para actuar todas las alertas potenciales y advertencias que pueden proporcionarse potencialmente al conductor.
La fusión de datos de los sensores, incluyendo los datos relativos a las condiciones y actividad del conductor permiten al sistema 100 actuar para evaluar la ejecución del conductor. Como se ha observado, el sistema 100 es operable para identificar un conductor a través de la interfaz de identificación del conductor 200. Durante la actuación del vehículo por el conductor, el sistema 100 monitoriza varios aspectos de la ejecución del conductor para llegar a un valor de evaluación de la ejecución del conductor.
En una realización, el sistema 100 puede monitorizar la capacidad del conductor de seguir el carril. La información de salida de carril se graba en relación con el uso de intermitentes y el posterior movimiento del vehículo para determinar si el cambio de carril fue intencionado o no intencionado. Adicionalmente, el sistema 100 puede monitorizar la dirección de la mirada, velocidad de parpadeo, frecuencia de las miradas y duración para determinar el comportamiento de exploración visual del conductor incluyendo el uso de espejos y "giros de cabeza" con los cambios de carril. La información puede usarse en comparación a los "buenos hábitos" conocidos para evaluar la ejecución, y al mismo tiempo, pueden usarse para desarrollar una métrica que refleje el patrón normal del conductor, que puede usarse como una línea de principio para comparar los cambios en el comportamiento de la conducción así como monitorizar la degradación o mejora en la habilidad de conducción.
Información adicional que puede ser tenida en consideración para evaluar la ejecución del conductor incluye la actuación del acelerador y de los frenos. El uso por el conductor del acelerador y de los frenos se graba y se da un valor numérico. De nuevo, usando algoritmos de comparación con "los buenos hábitos" conocidos y con la ejecución pasada puede hacerse una evaluación de cuán suavemente está frenando y/o acelerando así como el número y severidad de las paradas de pánico. Los pedales de acelerador y freno pueden usarse junto con métricas del mantenimiento del avance, como se monitoriza por el sistema 100. Haciéndolo así se permite al sistema 100 determinar si el conductor está esperando demasiado tiempo para frenar en relación con los obstáculos en el camino hacia delante del vehículo e incluso para determinar si el conductor está propenso a un avance inseguro cuando se usan los dispositivos de control de velocidad del vehículo.
Además para evaluar la ejecución del conductor, el sistema 100 puede adaptarse para asistir en la mejora de la ejecución del conductor. La comunicación de la evaluación del conductor al conductor anima al conductor a mejorar más. El sistema 100 puede también proporcionar consejos específicos relativos a la mejora de la ejecución del conductor. Por ejemplo, la monitorización de la ejecución del conductor puede extenderse temporalmente (grabando y comparando la ejecución del conductor con el tiempo) y espacialmente (considerando la variación de la ejecución sobre rutas familiares, frecuentemente realizadas) para incluir todas las veces que un conductor particular ha conducido el vehículo equipado. La evaluación del conductor, es decir, la ejecución del conductor, incluyendo alertas, advertencias y sugerencias para mejorar la ejecución, se proporciona entonces al módulo de instrumentación/alertas 202 para comunicación con el conductor. Una librería de mensajes pregrabados al conductor puede accederse por el sistema 100 y se eligen mensajes apropiados que constituyen informes y sugerencias. Por ejemplo, el sistema 100 puede haber detectado que el conductor no ha girado la cabeza antes de cambiar de carril, y puede llamar la atención del conductor de este hacho y poner de manifiesto la razón de que simplemente echar una mirada al espejo no es un buen sustitutivo del giro de cabeza. Mensajes adicionales pueden incluir recordatorios acerca de la mejora en la economía del combustible o identificar específicamente un área de la ejecución de la conducción que se ha deteriorado en el curso de un viaje.
La comunicación de la información de mejora de la ejecución puede hacerse en tiempo real; no obstante, para evitar crear más distracciones al conductor, la información puede almacenarse y comunicarse al conductor a continuación de la actividad de conducción. Los eventos desencadenantes y/o los umbrales pueden usarse para actuar deliberadamente los de mensajes de mejora de la ejecución. Alternativamente, el conductor puede opcionalmente seleccionar activar la interfaz. La información de ejecución almacenada puede también descargarse del vehículo y usarse como parte de un aula o en base a un simulador continuar un programa de entrenamiento, un programa de evaluación de la aptitud del conductor o un programa de ejecución de tráfico.
Para animar al uso del sistema 100 para mejorar la ejecución de la conducción, puede configurarse la realimentación para interpelar a categorías particulares de conductores. Por ejemplo, para conductores jóvenes, pueden usarse mensajes pregrabados que usan voces e imitaciones de personalidades de carreras de motor para transmitir la información, mientras que para otros conductores pueden usarse mensajes pregrabados que usan personalidades bien conocidas y de confianza. Alternativamente, el sistema 100 puede generar mensajes que usan síntesis de
voz.
Un ejemplo en particular de distracción potencial del conductor se refiere al uso de teléfonos celulares. Como se ha descrito, el sistema 100 sintetiza y prioriza toda la información entrante, incluyendo las llamadas telefónicas celulares. Por ejemplo, el sistema 100 puede proporcionar dos cortes potenciales de las llamadas del teléfono celular hacia el conductor sin prohibir las llamadas completamente. En el primer caso, se informa a la persona llamante, por un mensaje pregrabado, que la llamada está siendo completada hacia una persona que está actualmente conduciendo un vehículo. A la persona llamante se le da la opción de enviar la llamada directamente a un buzón de voz o completar la llamada hacia el conductor. Antes de que la llamada se complete hacia el conductor, el sistema 100 evalúa la situación, las condiciones y la carga cognitiva del conductor para determinar si la respuesta de enviar la llamada hasta el fin es apropiada. Si el sistema 100 determina que el potencial para la distracción del conductor está más allá de ciertos límites deseables, por ejemplo, la carga cognitiva requerida del conductor excederá un umbral, la llamada entrante puede ser retenida y/o transferida automáticamente al buzón de voz con un mensaje pregrabado
apropiado.
El sistema 100 puede configurarse para limitar sustancialmente el número de llamadas entrantes hacia el conductor. Muchas veces la persona que llama no sabe que la persona a la que está llamando está conduciendo, y si lo supiese, no habría llamado. Como se ha descrito anteriormente, el sistema 100 proporciona un mecanismo para informar al llamante que está llamando a un conductor y proporciona la opción de derivar la llamada al buzón de voz. Alternativamente, el sistema 100 puede estar configurado para dar al conductor la opción de aceptar las llamadas de forma transparente para la persona llamante. En tal disposición la llamada entrante se identifica al conductor a través de una interfaz de voz de manos libres. El conductor puede entonces aceptar la llamada, remitir la llamada al buzón de voz, remitir la llamada a un número hacia delante o terminar la llamada, todo lo cual puede realizarse sin conocimiento de la persona llamante. Alternativamente, la consumación de la llamada puede diferirse ligeramente, proporcionando un mensaje adecuado a la persona llamante. El sistema 100 puede completar entonces la llamada después del corto retardo una vez que se ha determinado que la carga cognitiva del conductor está en un nivel
aceptable.
El sistema 100 puede adaptarse también para tomar una acción "correctiva" en el caso de que una llamada entrante en curso esté asociada con una degradación de la ejecución de conducción. Si después de la aceptación de una llamada del teléfono celular el sistema 100 determina que la carga cognitiva del conductor se ha incrementado más allá de un nivel umbral y/o hay una degradación en la ejecución de la conducción por debajo de un nivel umbral, el sistema 100 puede suspender automáticamente la llamada telefónica celular. En tal caso, se proporciona un mensaje que informa a la persona llamante de que se le ha puesto temporalmente en espera. El sistema 100 puede también ofrecer a la persona llamante la opción de dejar un mensaje en el buzón de voz. Adicionalmente, de modo que el conductor esté enterado de la interrupción de la llamada, se proporciona un mensaje apropiado al conductor indicando que la llamada se ha puesto en espera. El conductor puede igualmente remitir a la persona llamante al buzón
de voz.
Como con otros aspectos de la operación del sistema 100, las preferencias del conductor como el uso del teléfono celular se proporcionan al sistema 100 a través de la interfaz de identificación de conductor 200. El sistema 100 puede también funcionar con otros dispositivos de comunicación sin hilos incluyendo los asistentes digitales personales (PDA) y los buscapersonas para la recepción de correo electrónico y mensajes de texto y datos.
Para tomar ventaja de la capacidad del sistema 100 de priorizar las llamadas telefónicas celulares entrantes con otra información presentada al conductor requiere que el teléfono celular esté comunicativamente acoplado al sistema 100 y que sea controlable por el sistema 100. Un teléfono celular independiente, que no pueda adaptarse al sistema 100, puede adaptarse para funcionar en un contexto de manera alerta.
La Fig. 3 ilustra un teléfono celular portátil 300 incluyendo un procesador 302, una memoria 304, un módulo de fusión de sensores 306 y una pluralidad de sensores, uno de los cuales se ilustra como el sensor 308. Aunque se han mostrado como elementos separados, se apreciará que estos elementos del teléfono celular 300 pueden estar integrados dentro de una unidad o módulo único. Alternativamente, puede proporcionarse un módulo de fusión de sensores incluyendo la capacidad de procesamiento adecuada como un dispositivo añadido a los teléfonos celulares existentes. Los sensores 308 pueden tomar datos tales como la luminosidad ambiente, la temperatura, movimiento y velocidad, fecha y hora y localización. Por supuesto, cuando el teléfono celular 308 funciona en una red de comunicaciones sin hilos la información del entorno tal como la localización, velocidad, fecha y hora pueden ser proporcionadas por la red. No obstante, el sensor 308 puede ser un dispositivo GPS capaz de determinar la localización, velocidad, hora y fecha usando el sistema de satélites GPS.
El módulo de fusión de sensores 306 recibe los datos desde diversos sensores y crea una lista de condiciones maestra que se comunica al procesador 302 controlando el funcionamiento del teléfono celular. El procesador 302 funciona de acuerdo con el programa de control almacenado en la memoria 304 y usando la lista de condiciones maestra para proporcionar una operación de contexto alerta del teléfono celular 300. El contexto alerta de actuación del teléfono celular 300 puede ilustrarse con los siguientes ejemplos.
En un ejemplo de actuación alerta, se determina que el teléfono celular está moviéndose a una velocidad de 60 kilómetros por hora (kph). Esta condición se reporta por el módulo de fusión de sensores 306 como parte de la lista de condiciones maestra al procesador 302. El procesador 302 infiere a partir de la condición de velocidad que el teléfono celular está con un conductor de un vehículo, y por tanto entra en un estado de servicio en el que las llamadas entrantes están protegidas. Una forma de protección es como se ha descrito anteriormente, en el que se avisa a la persona llamante en primer lugar de que está llamando a un conductor y ofrece la opción de dejar un mensaje
de voz.
En otro contexto alerta de operación, se determina si el teléfono celular está a la temperatura aproximada del cuerpo humano. Esta condición se reporta al módulo de fusión de sensores 306 como parte de las condiciones maestras al procesador 302. El procesador 302 funciona de acuerdo con un programa de control y usando la lista de condiciones maestras determina que el teléfono celular 300 está probablemente localizado cerca del cuerpo humano. En lugar de funcionar en el estado de servicio de llamada sonora se provoca que funcione en el estado de servicio de vibración para anunciar una llamada entrante.
La siguiente Tabla I muestra diversos mecanismos sensores, contexto de estimación y estados de servicios de funcionamiento.
\vskip1.000000\baselineskip
TABLA I Contexto Alerta de Estados de Servicio de un Dispositivo sin Hilos
1
2
3
4
De acuerdo con las realizaciones preferidas de la invención, los métodos de: evaluar la ejecución del operario del vehículo, informar al operario del vehículo para mejorar la ejecución del operario, síntesis de la respuesta en un sistema de asistencia al conductor, mejorar la ejecución del conductor mediante la realimentación de la ejecución y la actuación de dispositivo de contexto alerta, se describen en conexión con las Fig. 4-8.
Refiriéndonos a la Fig. 4, un método 400 de evaluar la ejecución del operario del vehículo comienza en la etapa 402 con la recepción de los datos de actuación del vehículo procedentes del vehículo relativos a la condición de operación del vehículo. La etapa 402 involucra la recepción en el módulo de fusión de sensores 102 de los datos de los diversos sensores, sistemas y dispositivos en el vehículo relativos a la actuación del vehículo. Estos datos pueden incluir la velocidad y la aceleración del vehículo, actuación del acelerador, actuación del freno, entrada del volante de dirección, posición del acelerador, velocidad de cambio de la posición del acelerador, entrada del acelerador disponible adicional y presión de actuación del acelerador, posición del freno, velocidad de cambio de la posición del freno, velocidad de cambio de la posición de freno, entrada del freno disponible adicional y presión de actuación del freno, posición del volante de dirección, velocidad de cambio del volante de dirección, presión aplicada por el operario al volante de dirección, entrada de dirección disponible adicional y otros parámetros de operación del vehículo tales como la temperatura del aceite, la presión del aceite, la temperatura del líquido de refrigeración, la presión de los neumáticos, la temperatura del líquido de frenos, la presión del líquido de frenos, temperatura de la transmisión, fallo del encendido, activación de los limpiaparabrisas, aplicación de los dispositivos de desempañar delanteros/traseros, sistemas de diagnóstico, etc.
En la etapa 404, se monitoriza una porción interior del vehículo para proporcionar datos al módulo de fusión de sensores 102 relativos a las actividades del conductor. Las actividades monitorizadas pueden incluir monitorizar el uso de los controles del sistema del vehículo por el conductor, tales como los controles de conducción, sistemas telemáticos, sistemas de entretenimiento, controles de confort del ocupante incluyendo el HVAC, posición de los asientos, posición del volante de dirección, posición de los pedales, posición de la ventana, visera solar, techo solar/lunar y sombras de ventanas y controles de comunicación. La monitorización de actividades puede incluir también la monitorización de las actividades de los pasajeros del vehículo.
En la etapa 406, se monitoriza el entorno exterior del vehículo para proporcionar datos al módulo de fusión de sensores 102 relativo al entorno de funcionamiento del vehículo. Los datos ambientales de operación pueden incluir las condiciones de la carretera, seguimiento del carril, datos del avance, datos de control de tráfico y datos de las condiciones de tráfico.
En la etapa 408, se monitoriza al operario del vehículo para proporcionar datos al módulo de fusión 102 relativos a las condiciones del conductor. Las condiciones físicas del conductor pueden incluir fatiga o intoxicación o condiciones psicológicas del conductor. Adicionalmente, puede monitorizarse el nivel de distracción del conductor.
En la etapa 410 se evalúa la ejecución del conductor. La ejecución del conductor puede evaluarse infiriendo la ejecución del conductor a partir de los datos de operación del vehículo, los datos de actividad del operario, los datos del medio ambiente y los datos de las condiciones del operario. Tal inferencia pueden obtenerse usando una máquina de inferencia o una máquina de decisión basada en reglas. Alternativamente, pueden usarse lógica difusa o adaptativa, pretendiendo el objetivo.
Refiriéndonos a la Fig. 5, el método 500 de informar al conductor para mejorar la ejecución del conductor comienza en la etapa 502 con la recepción de los datos de operación del vehículo desde el vehículo relativos a las condiciones de operación del vehículo. La etapa 502 involucra recibir en el módulo de fusión de sensores 102 datos procedentes de sensores diversos, sistemas y dispositivos en el vehículo relativos a los datos de operación del vehículo. Estos datos pueden incluir velocidad y aceleración del vehículo, actuación del acelerador, actuación del freno, entrada del volante de dirección, posición del acelerador, velocidad de cambio de la posición del acelerador, entrada del acelerador disponible adicional y presión de actuación del acelerador, posición del freno, velocidad de cambio de la posición del freno, entrada de frenos disponible adicional y presión de aplicación de frenos, posición del volante de posición, velocidad de cambio del volante de dirección, presión del operario aplicada al volante de dirección, entrada de dirección disponible adicional y otros parámetros de operación del vehículo tales como la temperatura del aceite, la presión del aceite, la temperatura de líquido de refrigeración, presión de los neumáticos, temperatura de líquido de frenos, presión del líquido de frenos, temperatura de la transmisión, fallo del encendido, activación de los limpiaparabrisas, aplicación de los dispositivos de desempañar delanteros/traseros, sistemas de diagnóstico, etc.
En la etapa 504, se monitoriza una parte del interior del vehículo para proporcionar datos al módulo de fusión de sensores 102 relativos a las actividades del conductor. Las actividades monitorizadas pueden incluir monitorizar el uso de los controles de sistema del vehículo, tales como controles de conducción, sistemas telemáticos, sistemas de entretenimiento, controles de confort de los ocupantes incluyendo el HVAC, posición de los asientos, posición del volante de dirección, posición de los pedales, posición de ventanas, visera solar, techo solar/lunar y sombras de ventanas y controles de comunicación. La monitorización de actividades puede también incluir actividades de monitorización de los pasajeros del vehículo.
En la etapa 506, se monitoriza el entorno exterior del vehículo para proporcionar datos al módulo de fusión de sensores 102 relativos al entorno de operación del vehículo. Los datos ambientales de operación pueden incluir condiciones de la carretera, seguimiento del carril, datos de progreso, datos de control de tráfico y datos de las condiciones del tráfico.
En la etapa 508, el operario del vehículo se monitoriza para proporcionar datos al módulo de fusión 102 relativos a la condición del conductor. Las condiciones físicas del conductor pueden incluir fatiga o intoxicación o condiciones psicológicas del conductor. Adicionalmente, se puede monitorizar el nivel de distracción del conductor.
En la etapa 510, se estima la carga cognitiva del conductor. La carga cognitiva del conductor puede tener en cuenta las preferencias del conductor, la ejecución pasada y los hábitos. Entonces, en la etapa 512, la información del vehículo se prioriza en base a la carga cognitiva del conductor para su comunicación al conductor.
Refiriéndonos a la Fig. 6, el método 600 de sintetizar una respuesta a una situación de operación de un vehículo comienza en la etapa 602 con la generación de una lista de condiciones maestra. La lista de condiciones maestra se genera por el módulo de fusión de sensores 102 y es una fusión de diversos sensores disponibles dentro del vehículo. Los datos de los sensores pueden ser cualquier dato disponible dentro del vehículo incluyendo: datos de operación del vehículo, datos de actividad de conductor, datos del entorno, datos de las condiciones del conductor, datos de preferencia del conductor, datos de realimentación de la acción del conductor.
A partir de la lista de condiciones maestra, en la etapa 604, se determina la situación de ejecución. La condición de operación puede ser: la existencia de una condición problemática, la existencia de una corrección del problema, la existencia de un incremento del problema, la existencia de una demanda de tarea del operario, la existencia de una demanda de tarea del agente, la existencia de una terminación de una tarea del operario, la existencia de la terminación de una tarea del agente. Adicionalmente, en la etapa 606, se determina la carga cognitiva del operario.
En la etapa 608, se determina una respuesta a la situación de operación en base a la carga cognitiva del operario. La respuesta puede ser sincronizar el flujo de información al conductor, generar una alerta al conductor, proporcionar una alerta incluyendo alertas de audio, alertas visuales, alertas táctiles, suspender o terminar la operación de servicios seleccionados dentro del vehículo.
Refiriéndonos a la Fig. 7, el método 700 de mejorar la ejecución del conductor a través de la realimentación de la ejecución comienza en la etapa 702 con la recepción de los datos de operación del vehículo desde el vehículo relativos a las condiciones de operación del vehículo. La etapa 702 involucra recibir en el módulo de fusión de sensores 102 datos procedentes de diversos sensores, sistemas y dispositivos en el vehículo y datos relativos a la operación del vehículo. Estos datos pueden incluir la velocidad y aceleración del vehículo, actuación del acelerador, actuación del freno, entrada del volante de dirección, posición del acelerador, velocidad de cambio de la posición del acelerador, entrada del acelerador disponible adicional y presión de actuación del acelerador, posición del freno, velocidad de cambio de la posición del freno, entrada del freno disponible adicional y presión de actuación del freno, posición del volante de dirección, velocidad de cambio del volante de dirección, presión aplicada por el operario al volante de dirección, entrada de dirección disponible adicional y otros parámetros de operación del vehículo tales como la temperatura del aceite, la presión del aceite, la temperatura del líquido de refrigeración, la presión del los neumáticos, la temperatura del líquido de frenos, la presión del líquido de frenos, la temperatura de la transmisión, fallos de encendido, activación de los limpiaparabrisas, aplicación de los dispositivos de desempañar delanteros/traseros, sistemas de
diagnóstico, etc.
En la etapa 704, se monitoriza una parte del interior del vehículo para proporcionar datos al módulo de fusión de sensores 102 relativos a las actividades del conductor. Las actividades monitorizadas pueden incluir la monitorización del uso de los controles del sistema del vehículo por el conductor, tales como los controles de conducción, sistemas telemáticos, sistemas de entretenimiento, controles de confort de los ocupantes incluyendo HVAC, posición de los asientos, posición del volante de dirección, posición de los pedales, posición de las ventanas, visera solar, techo solar/lunar y sombras de ventanas y controles de comunicación. Las actividades de monitorización pueden incluir también actividades de los pasajeros del vehículo.
En la etapa 706, se monitoriza el entorno exterior del vehículo para proporcionar datos a módulo de fusión de sensores 102 relativos al entorno de operación del vehículo. Los datos ambientales de operación pueden incluir condiciones de la carretera, seguimiento del carril, datos de progreso, datos de control de tráfico y datos de las condiciones del tráfico.
\newpage
En la etapa 708, el operario del vehículo se monitoriza para proporcionar datos al módulo de fusión 102 relativos a las condiciones del conductor. Las condiciones físicas del conductor pueden incluir fatiga o intoxicación o condiciones psicológicas del conductor. Adicionalmente, se puede monitorizar el nivel de distracción del conductor.
En la etapa 710, se determina la evaluación de la ejecución del conductor y se graba de modo que en la etapa 712, la evaluación de ejecución del conductor puede reportarse al conductor. La etapa 712 incluye informar al conductor de la evaluación de ejecución una vez terminada la operación de vehículo o informar de la evaluación de la ejecución del operario durante la operación del vehículo. Además, la evaluación de la ejecución del conductor puede grabarse por un primer periodo de operación del vehículo y por un segundo periodo de operación del vehículo e incluir una comparación entre las dos ejecuciones.
El método puede además incluir la etapa de recibir datos de las preferencias del conductor y grabar la evaluación de la ejecución del conductor en base a los datos de preferencia del conductor. Adicionalmente, la evaluación de la ejecución del conductor puede incluir una puntuación para cada uno de una pluralidad de aspectos de la operación del vehículo. Informar de la evaluación de la ejecución del conductor puede ser mediante una indicación visual, una indicación de audio o una indicación táctil.
Refiriéndonos a la Fig. 8, el método 800 para configurar un estado de servicio de un dispositivo de comunicaciones sin hilos comienza en la etapa 802 con la recepción de un conjunto de parámetros de operación del dispositivo que definen un estado de servicio preferido del dispositivo de comunicación sin hilos para el operario del dispositivo. En la etapa 804, los datos de contexto se reciben desde al menos una fuente de datos de contexto. Los parámetros de operación del dispositivo incluyen al menos un parámetro de contexto. Los parámetros de contexto y los datos de contexto pueden cada uno de ellos relacionarse con: la velocidad del dispositivo de comunicación sin hilos, la localización del dispositivo de comunicación sin hilos, la hora, la actividad del operario del dispositivo, la carga cognitiva del operario del dispositivo, la operación del vehículo incluyendo los datos de operación del vehículo y los datos ambientales, iluminación ambiente, altitud y sonido ambiente. Los datos recibidos pueden ser una fusión de datos procedentes de una diversidad de fuentes, tales como desde dentro del vehículo donde el dispositivo de comunicaciones sin hilos está acoplado comunicativamente con el vehículo. Los parámetros de operación del dispositivo pueden proporcionarse a través de la interfaz de usuario portátil personal, tal como la interfaz de identificación del vehículo 200.
En la etapa 806, se fija el estado de servicio del dispositivo de comunicaciones sin hilos. El estado de servicio puede ser: llamada en progreso, llamada en progreso al buzón de voz, voz activada, modo llamando, retardo de consumación de la llamada e identificación de la parte llamante, etc.
El dispositivo de comunicación sin hilos puede ser un teléfono celular, un buscapersonas, un asistente digital personal u otro dispositivo de computación incluyendo computadores personales y buscadores de páginas.

Claims (15)

1. Un método de mejorar la ejecución del conductor a través de realimentación de la ejecución; comprendiendo el método las etapas de:
recibir los datos de operación del vehículo (112) desde el vehículo relativos a la condición de operación del
vehículo;
monitorizar una parte del interior del vehículo y recibir los datos de actividad del operario (118) desde la parte del interior del vehículo relativos a las actividades del operario (108) dentro de la parte interior;
recibir los datos del entorno del vehículo (114) desde el entorno exterior del vehículo;
monitorizar al operario (108) y recibir los datos de las condiciones del operario (116) relativos a la condición del operario (108);
grabar la evaluación de la ejecución del operario en base a los datos de operación del vehículo (112), los datos de actividad del operario (118), los datos ambientales del vehículo (114) y los datos de condición del operario (116); caracterizados por la evaluación de la ejecución del operario siendo el valor de la ejecución del conductor la evaluación de la habilidad del operario para activar la operación de un vehículo en comparación con las buenas prácticas conocidas;
almacenar la evaluación del operario a bordo del vehículo; y
informar al operario de la evaluación de la ejecución del operario para mejorar la ejecución del conductor.
2. El método de la reivindicación 1, en el que la etapa de recibir los datos de las condiciones del vehículo (112) comprende recibir los datos relativos a al menos uno de los siguientes; velocidad del vehículo, aceleración del vehículo, activación del acelerador, activación del freno, entrada del volante de dirección, posición de acelerador, velocidad de cambio de la posición del acelerador, entrada del acelerador disponible adicional, presión de activación del acelerador, posición del freno, velocidad de cambio de la posición del freno, entrada de freno disponible adicional, presión de activación del freno, posición del volante de dirección, velocidad de cambio de la posición del volante de dirección, presión aplicada por el operario al volante de dirección y entrada de dirección disponible adicional.
3. El método de la reivindicación 1, en el que la etapa de recibir los datos de actividad de operario (118) comprende recibir datos relativos a al menos uno de los controles de conducción, controles telemáticos, controles de confort de los ocupantes, controles de entretenimiento y controles de comunicación.
4. El método de la reivindicación 1, en el que la etapa de recibir los datos de las condiciones del operario (116) comprende recibir datos relativos a al menos uno de fatiga, intoxicación y distracción.
5. El método de la reivindicación 1, en el que la etapa de recibir los datos del entorno del vehículo (114) comprende recibir datos relativos a al menos uno de las condiciones de la carretera, seguimiento del carril, progreso, control de tráfico y condiciones del tráfico.
6. El método de la reivindicación 1, en el que la etapa de determinar el valor de evaluación de la ejecución del operario comprende inferir el valor de evaluación de la ejecución del operario a partir de los datos.
7. El método de la reivindicación 1, en el que la etapa de informar comprende proporcionar un mensaje pregrabado.
8. El método de la reivindicación 1, en el que la etapa de informar la evaluación de la ejecución del operario comprende informar de la evaluación de la ejecución del operario una vez que concluye la operación del vehículo.
9. El método de la reivindicación 1, en el que la etapa de informar la evaluación de la ejecución del operario comprende informar de la evaluación de la ejecución del operario durante la operación del vehículo.
10. El método de la reivindicación 1, que comprende además grabar una primera evaluación de la ejecución del operario relativa a un primer periodo de operación del vehículo y grabar una segunda evaluación de la ejecución del operario relativa a un segundo periodo de operación del vehículo y comparar la primera evaluación de la ejecución del operario y la segunda evaluación de la ejecución del operario.
11. El método de la reivindicación 1 que comprende además la etapa de recibir los datos de preferencias del operario, y en el que la etapa de grabar la evaluación de la ejecución del operario comprende grabar una evaluación de la ejecución del operario en base a los datos de preferencia del operario.
12. El método de la reivindicación 1, en el que la evaluación de la ejecución del operario es representativa de la aptitud del operario.
13. El método de la reivindicación 1, en el que la evaluación de la ejecución del operario comprende una puntuación para cada uno de una pluralidad de aspectos de la operación del vehículo.
14. El método de la reivindicación 1, en el que la etapa de informar la evaluación de la ejecución del operario comprende proporcionar al menos una de indicación visual, indicación de audio e indicación táctil.
15. Un aparato para mejorar la ejecución del operario del vehículo, comprendiendo el aparato:
un módulo de fusión de sensores (102), estando el módulo de fusión de sensores acoplado a un sensor de las condiciones del vehículo, a un sensor del exterior del vehículo, a un sensor de las condiciones del operario (206) y a un sensor de actividad del operario (208) que proporcionan respectivamente al módulo de fusión de sensores (102) los datos de las condiciones del vehículo, los datos del entorno del vehículo, la datos de las condiciones del operario y los datos de la actividad del operario, el módulo de fusión de sensores actúa para proporcionar una lista de condiciones maestra basada en los datos recibidos por el módulo de fusión de sensores (102);
un selector de respuestas (104) acoplado al módulo de fusión de sensores (102), actuando el selector de respuestas para determinar las condiciones de operación actuales en base a la lista de condiciones maestra y para evaluar la actuación del operario en respuesta a las condiciones de operación actuales para proporcionar un valor de evaluación de la ejecución del operario en base a la lista de condiciones maestra y la actuación del operario; caracterizado porque el valor de la evaluación de la ejecución del operario es el valor asignado a la habilidad del operario para actuar la operación del vehículo en comparación con las buenas prácticas conocidas;
almacenar la evaluación de la ejecución del operario a bordo del vehículo; y
un generador de acciones (106) acoplado al selector de respuestas (104) para generar un mensaje al operario de realimentación en base al valor de evaluación de la ejecución del operario relativo a la mejora de la ejecución.
ES01981576T 2000-10-13 2001-10-15 Metodo y aparato para mejorar la ejecuccion del operativo de una vehiculo. Expired - Lifetime ES2275748T3 (es)

Applications Claiming Priority (13)

Application Number Priority Date Filing Date Title
US24044300P 2000-10-14 2000-10-14
US24055300P 2000-10-14 2000-10-14
US24049300P 2000-10-14 2000-10-14
US24044400P 2000-10-14 2000-10-14
US240493P 2000-10-14
US240443P 2000-10-14
US240553P 2000-10-14
US240444P 2000-10-14
US24056000P 2000-10-16 2000-10-16
US240560P 2000-10-16
US976989P 2001-10-12
PCT/US2001/032140 WO2002030986A2 (en) 2000-10-13 2001-10-12 HUMANIZED ANTI-LT-β-R ANTIBODIES
US09/976,989 US7565230B2 (en) 2000-10-14 2001-10-12 Method and apparatus for improving vehicle operator performance

Publications (1)

Publication Number Publication Date
ES2275748T3 true ES2275748T3 (es) 2007-06-16

Family

ID=27559297

Family Applications (1)

Application Number Title Priority Date Filing Date
ES01981576T Expired - Lifetime ES2275748T3 (es) 2000-10-13 2001-10-15 Metodo y aparato para mejorar la ejecuccion del operativo de una vehiculo.

Country Status (8)

Country Link
US (1) US7565230B2 (es)
EP (1) EP1326759B8 (es)
JP (2) JP2004518461A (es)
KR (1) KR20030070889A (es)
AT (1) ATE346764T1 (es)
DE (1) DE60124937T2 (es)
ES (1) ES2275748T3 (es)
WO (1) WO2002030700A2 (es)

Families Citing this family (315)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10103401A1 (de) * 2001-01-26 2002-08-01 Daimler Chrysler Ag Gefahrenabwendungssystem für ein Fahrzeug
US7406421B2 (en) * 2001-10-26 2008-07-29 Intellisist Inc. Systems and methods for reviewing informational content in a vehicle
US7039551B2 (en) * 2002-02-04 2006-05-02 Hrl Laboratories, Llc Method and apparatus for calculating an operator distraction level
WO2003074326A1 (en) * 2002-03-07 2003-09-12 Nice Systems Ltd. Method and apparatus for internal and external monitoring of a transportation vehicle
JP4200748B2 (ja) * 2002-11-29 2008-12-24 富士ゼロックス株式会社 触覚インターフェイス装置
US6961644B2 (en) 2002-12-12 2005-11-01 Alps Automotive, Inc. Dual haptic vehicle control and display system
US7894177B2 (en) * 2005-12-29 2011-02-22 Apple Inc. Light activated hold switch
US7292152B2 (en) * 2003-06-12 2007-11-06 Temic Automotive Of North America, Inc. Method and apparatus for classifying vehicle operator activity state
US7552000B2 (en) * 2003-09-08 2009-06-23 C. Rob Hammerstein Gmbh & Co. Kg Cockpit of an automotive vehicle with a steering wheel and an adjustable seat
US7512470B2 (en) * 2003-10-22 2009-03-31 C. Rob. Hammerstein Gmbh & Co. Kg Cockpit of an automotive vehicle with a steering wheel and an adjustable seat
JP2005189667A (ja) * 2003-12-26 2005-07-14 Mitsubishi Electric Corp 車載機器、音声対話ドキュメント作成サーバ及びこれらを用いたナビゲーションシステム
US7650509B1 (en) 2004-01-28 2010-01-19 Gordon & Howard Associates, Inc. Encoding data in a password
US7269504B2 (en) * 2004-05-12 2007-09-11 Motorola, Inc. System and method for assigning a level of urgency to navigation cues
US7180407B1 (en) * 2004-11-12 2007-02-20 Pengju Guo Vehicle video collision event recorder
JP2006157274A (ja) * 2004-11-26 2006-06-15 Kyocera Corp 携帯通信端末および応答メッセージ送出方法
US20060217935A1 (en) * 2005-03-28 2006-09-28 General Motors Corporation Vehicle component usage monitor
JP4367370B2 (ja) * 2005-04-13 2009-11-18 株式会社デンソー 車両用ナビゲーション装置
US7532958B2 (en) 2005-06-24 2009-05-12 General Motors Corporation Method for real-time assessment of driver workload by a navigation or telematics device
WO2007000030A1 (en) * 2005-06-29 2007-01-04 National Ict Australia Limited Measuring cognitive load
US8633985B2 (en) * 2005-08-05 2014-01-21 Vigil Systems Pty. Ltd. Computerized information collection and training method and apparatus
US20080140306A1 (en) * 2005-11-30 2008-06-12 Snodgrass Ken L Voice recognition method and system for displaying charts and maps
US20070132773A1 (en) * 2005-12-08 2007-06-14 Smartdrive Systems Inc Multi-stage memory buffer and automatic transfers in vehicle event recording systems
US20070150138A1 (en) 2005-12-08 2007-06-28 James Plante Memory management in event recording systems
US10878646B2 (en) * 2005-12-08 2020-12-29 Smartdrive Systems, Inc. Vehicle event recorder systems
US20070135979A1 (en) * 2005-12-09 2007-06-14 Smartdrive Systems Inc Vehicle event recorder systems
US20070135980A1 (en) * 2005-12-09 2007-06-14 Smartdrive Systems Inc Vehicle event recorder systems
US20070136063A1 (en) * 2005-12-12 2007-06-14 General Motors Corporation Adaptive nametag training with exogenous inputs
US20070194881A1 (en) 2006-02-07 2007-08-23 Schwarz Stanley G Enforcing payment schedules
US9129233B2 (en) * 2006-02-15 2015-09-08 Catepillar Inc. System and method for training a machine operator
US9477639B2 (en) * 2006-03-08 2016-10-25 Speed Demon Inc. Safe driving monitoring system
US9848289B2 (en) 2006-03-08 2017-12-19 Octo Advisory Inc. Safe driving monitoring system
US8731770B2 (en) * 2006-03-08 2014-05-20 Speed Demon Inc. Method and apparatus for determining and storing excessive vehicle speed
US9201842B2 (en) 2006-03-16 2015-12-01 Smartdrive Systems, Inc. Vehicle event recorder systems and networks having integrated cellular wireless communications systems
US8996240B2 (en) 2006-03-16 2015-03-31 Smartdrive Systems, Inc. Vehicle event recorders with integrated web server
JP2007295524A (ja) * 2006-03-28 2007-11-08 Denso Corp 情報通信システム、施設側装置、ユーザ側装置、管理装置、車両側装置、施設側プログラム、ユーザ側プログラム、管理プログラム及び車両側プログラム
US9067565B2 (en) 2006-05-22 2015-06-30 Inthinc Technology Solutions, Inc. System and method for evaluating driver behavior
US8630768B2 (en) 2006-05-22 2014-01-14 Inthinc Technology Solutions, Inc. System and method for monitoring vehicle parameters and driver behavior
US7603228B2 (en) * 2006-05-25 2009-10-13 Ford Global Technologies, Llc Haptic apparatus and coaching method for improving vehicle fuel economy
GB0614184D0 (en) * 2006-07-18 2006-08-23 Farnham John Integrated data logging unit
KR100753838B1 (ko) * 2006-08-11 2007-08-31 한국전자통신연구원 적응형 차량 운전지원 장치 및 방법
KR100753839B1 (ko) 2006-08-11 2007-08-31 한국전자통신연구원 적응형 차량 인터페이스 제공 장치 및 방법
US7962342B1 (en) * 2006-08-22 2011-06-14 Avaya Inc. Dynamic user interface for the temporarily impaired based on automatic analysis for speech patterns
KR100826011B1 (ko) * 2006-10-24 2008-04-29 엘지디스플레이 주식회사 디스플레이 소자
US8649933B2 (en) * 2006-11-07 2014-02-11 Smartdrive Systems Inc. Power management systems for automotive video event recorders
US8989959B2 (en) * 2006-11-07 2015-03-24 Smartdrive Systems, Inc. Vehicle operator performance history recording, scoring and reporting systems
US8868288B2 (en) 2006-11-09 2014-10-21 Smartdrive Systems, Inc. Vehicle exception event management systems
US20080147267A1 (en) * 2006-12-13 2008-06-19 Smartdrive Systems Inc. Methods of Discretizing data captured at event data recorders
US8139820B2 (en) 2006-12-13 2012-03-20 Smartdrive Systems Inc. Discretization facilities for vehicle event data recorders
JP4985428B2 (ja) * 2007-02-01 2012-07-25 株式会社デンソー ドライバ管理装置および運行管理システム
US9026267B2 (en) 2007-03-09 2015-05-05 Gordon*Howard Associates, Inc. Methods and systems of selectively enabling a vehicle by way of a portable wireless device
JP4259587B2 (ja) * 2007-03-30 2009-04-30 株式会社デンソー データベース装置、注意喚起装置及び運転支援装置
US7937202B2 (en) * 2007-05-01 2011-05-03 Ronald Van Houten Seat belt/accelerator behavioral system
US8239092B2 (en) 2007-05-08 2012-08-07 Smartdrive Systems Inc. Distributed vehicle event recorder systems having a portable memory data transfer system
US7982620B2 (en) * 2007-05-23 2011-07-19 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for reducing boredom while driving
US8825277B2 (en) * 2007-06-05 2014-09-02 Inthinc Technology Solutions, Inc. System and method for the collection, correlation and use of vehicle collision data
US8666590B2 (en) 2007-06-22 2014-03-04 Inthinc Technology Solutions, Inc. System and method for naming, filtering, and recall of remotely monitored event data
US9129460B2 (en) 2007-06-25 2015-09-08 Inthinc Technology Solutions, Inc. System and method for monitoring and improving driver behavior
US7999670B2 (en) 2007-07-02 2011-08-16 Inthinc Technology Solutions, Inc. System and method for defining areas of interest and modifying asset monitoring in relation thereto
US8818618B2 (en) 2007-07-17 2014-08-26 Inthinc Technology Solutions, Inc. System and method for providing a user interface for vehicle monitoring system users and insurers
US9117246B2 (en) * 2007-07-17 2015-08-25 Inthinc Technology Solutions, Inc. System and method for providing a user interface for vehicle mentoring system users and insurers
US8577703B2 (en) 2007-07-17 2013-11-05 Inthinc Technology Solutions, Inc. System and method for categorizing driving behavior using driver mentoring and/or monitoring equipment to determine an underwriting risk
US20090051510A1 (en) * 2007-08-21 2009-02-26 Todd Follmer System and Method for Detecting and Reporting Vehicle Damage
US7876205B2 (en) 2007-10-02 2011-01-25 Inthinc Technology Solutions, Inc. System and method for detecting use of a wireless device in a moving vehicle
US8069479B2 (en) 2007-11-27 2011-11-29 Verizon Patent And Licensing Inc. Position and velocity-based mobile device management
US20090150768A1 (en) * 2007-12-10 2009-06-11 International Business Machines Corporation Composition-based application user interface framework
JP2011514274A (ja) * 2008-01-31 2011-05-06 コンチネンタル・テーヴエス・アクチエンゲゼルシヤフト・ウント・コンパニー・オツフエネハンデルスゲゼルシヤフト 運転者援助システム
DE602008004435D1 (de) * 2008-04-02 2011-02-24 Gm Global Tech Operations Inc Adaptive Lenksteuerung für ein Kraftfahrzeug
FI20085501L (fi) * 2008-05-27 2009-11-28 John Deere Forestry Oy Työkoneen ja sen käyttäjän tuottavuuden arviointijärjestelmä
US8275348B2 (en) 2008-05-30 2012-09-25 Volkswagen Ag Method for managing telephone calls in a vehicle
US8280560B2 (en) * 2008-07-24 2012-10-02 GM Global Technology Operations LLC Adaptive vehicle control system with driving style recognition based on headway distance
US8195341B2 (en) * 2008-07-24 2012-06-05 GM Global Technology Operations LLC Adaptive vehicle control system with driving style recognition based on maneuvers at highway on/off ramps
US8280601B2 (en) * 2008-07-24 2012-10-02 GM Global Technology Operations LLC Adaptive vehicle control system with integrated maneuver-based driving style recognition
US8170740B2 (en) * 2008-07-24 2012-05-01 GM Global Technology Operations LLC Adaptive vehicle control system with driving style recognition based on vehicle launching
US8060260B2 (en) * 2008-07-24 2011-11-15 GM Global Technology Operations LLC Adaptive vehicle control system with driving style recognition based on vehicle passing maneuvers
US20100023265A1 (en) * 2008-07-24 2010-01-28 Gm Global Technology Operations, Inc. Adaptive vehicle control system with integrated driving style recognition
US20100019964A1 (en) * 2008-07-24 2010-01-28 Gm Global Technology Operations, Inc. Adaptive vehicle control system with driving style recognition and road condition recognition
US7831407B2 (en) * 2008-07-24 2010-11-09 Gm Global Technology Operations, Inc. Adaptive vehicle control system with driving style recognition based on vehicle U-turn maneuvers
US20100023180A1 (en) * 2008-07-24 2010-01-28 Gm Global Technology Operations, Inc. Adaptive vehicle control system with driving style recognition based on lane-change maneuvers
US8260515B2 (en) * 2008-07-24 2012-09-04 GM Global Technology Operations LLC Adaptive vehicle control system with driving style recognition
US20100019880A1 (en) * 2008-07-24 2010-01-28 Gm Global Technology Operations, Inc. Adaptive vehicle control system with driving style recognition based on traffic sensing
US20100023197A1 (en) * 2008-07-24 2010-01-28 Gm Global Technology Operations, Inc. Adaptive vehicle control system with driving style recognition based on behavioral diagnosis
WO2010014965A2 (en) * 2008-07-31 2010-02-04 Choicepoint Services, Inc. Systems & methods of calculating and presenting automobile driving risks
JP5198969B2 (ja) * 2008-08-01 2013-05-15 株式会社デンソー 運転診断情報提供装置、及び運転診断情報提供システム
JP5203841B2 (ja) 2008-08-01 2013-06-05 株式会社デンソー 運転アドバイス提供装置
JP4955625B2 (ja) * 2008-08-01 2012-06-20 株式会社デンソー 運転アドバイス提供装置、運転診断装置
US8688180B2 (en) 2008-08-06 2014-04-01 Inthinc Technology Solutions, Inc. System and method for detecting use of a wireless device while driving
US11482058B2 (en) 2008-09-09 2022-10-25 United Parcel Service Of America, Inc. Systems and methods for utilizing telematics data to improve fleet management operations
US8416067B2 (en) 2008-09-09 2013-04-09 United Parcel Service Of America, Inc. Systems and methods for utilizing telematics data to improve fleet management operations
EP2347400B1 (en) * 2008-11-07 2014-03-12 Volvo Lastvagnar AB Method and system for combining sensor data
US20100152950A1 (en) * 2008-12-15 2010-06-17 Gm Global Technology Operations, Inc. Adaptive vehicle control system with driving style recognition based on vehicle stopping
US20100152951A1 (en) * 2008-12-15 2010-06-17 Gm Global Technology Operations, Inc. Adaptive vehicle control system with driving style recognition based on vehicle accelerating and decelerating
IT1392378B1 (it) * 2008-12-22 2012-03-02 Ferrari Spa Metodo di assistenza alla guida prestazionale di un veicolo
US9641678B2 (en) * 2009-01-29 2017-05-02 Ford Global Technologies, Llc System and method for interrupting an instructional prompt to signal upcoming input over a wireless communication link
US8892341B2 (en) 2009-02-13 2014-11-18 Inthinc Technology Solutions, Inc. Driver mentoring to improve vehicle operation
US8963702B2 (en) 2009-02-13 2015-02-24 Inthinc Technology Solutions, Inc. System and method for viewing and correcting data in a street mapping database
US20100209891A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Driving skill recognition based on stop-and-go driving behavior
US8170725B2 (en) * 2009-02-18 2012-05-01 GM Global Technology Operations LLC Vehicle stability enhancement control adaptation to driving skill based on highway on/off ramp maneuver
US20100209881A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Driving skill recognition based on behavioral diagnosis
US20100209887A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operation, Inc. Vehicle stability enhancement control adaptation to driving skill based on vehicle backup maneuver
US20100209890A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Vehicle stability enhancement control adaptation to driving skill with integrated driving skill recognition
US20100209885A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Vehicle stability enhancement control adaptation to driving skill based on lane change maneuver
US20100209884A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Driving skill recognition based on vehicle left and right turns
US20100209889A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Vehicle stability enhancement control adaptation to driving skill based on multiple types of maneuvers
US20100209886A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Driving skill recognition based on u-turn performance
US20100209888A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Vehicle stability enhancement control adaptation to driving skill based on curve-handling maneuvers
US20100209883A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Vehicle stability enhancement control adaptation to driving skill based on passing maneuver
US20100209882A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Driving skill recognition based on straight-line driving behavior
US20100209892A1 (en) * 2009-02-18 2010-08-19 Gm Global Technology Operations, Inc. Driving skill recognition based on manual transmission shift behavior
WO2010132555A1 (en) * 2009-05-12 2010-11-18 The Children's Hospital Of Philadelhia Individualized mastery-based driver training
JP5444898B2 (ja) * 2009-07-09 2014-03-19 アイシン精機株式会社 状態検出装置、状態検出方法及びプログラム
CN102763002A (zh) * 2009-08-05 2012-10-31 福特全球技术公司 用于将车辆信息发送到乘员通信装置的***和方法
US20110054792A1 (en) * 2009-08-25 2011-03-03 Inthinc Technology Solutions, Inc. System and method for determining relative positions of moving objects and sequence of such objects
JP5482167B2 (ja) * 2009-12-10 2014-04-23 アイシン・エィ・ダブリュ株式会社 車両用走行案内装置、車両用走行案内方法及びコンピュータプログラム
CN102548822B (zh) * 2009-12-28 2015-06-03 丰田自动车株式会社 驾驶辅助装置
DE102010044449B4 (de) * 2009-12-31 2014-05-08 Volkswagen Ag Erkennen des Grades der Fahrfähigkeit des Fahrers eines Kraftfahrzeugs
US8457839B2 (en) * 2010-01-07 2013-06-04 Ford Global Technologies, Llc Multi-display vehicle information system and method
US8060150B2 (en) 2010-03-29 2011-11-15 Robert L. Mendenhall Intra-vehicular mobile device usage detection system and method of using the same
SE535868C2 (sv) * 2010-04-21 2013-01-22 Scania Cv Ab Bedömningsmetod och system avseende acceleration
DE102010018331A1 (de) * 2010-04-27 2011-10-27 Gm Global Technology Operations Llc (N.D.Ges.D. Staates Delaware) Vorrichtung und Verfahren zum Erkennen einer Gefahrensituation für ein Fahrzeug
US9639688B2 (en) 2010-05-27 2017-05-02 Ford Global Technologies, Llc Methods and systems for implementing and enforcing security and resource policies for a vehicle
US9213522B2 (en) 2010-07-29 2015-12-15 Ford Global Technologies, Llc Systems and methods for scheduling driver interface tasks based on driver workload
JP2013539572A (ja) 2010-07-29 2013-10-24 フォード グローバル テクノロジーズ、リミテッド ライアビリティ カンパニー 運転者インタフェースタスクを管理する方法、及び、車両
US8972106B2 (en) 2010-07-29 2015-03-03 Ford Global Technologies, Llc Systems and methods for scheduling driver interface tasks based on driver workload
US20120041633A1 (en) * 2010-08-16 2012-02-16 Ford Global Technologies, Llc Systems and methods for regulating control of a vehicle infotainment system
US8880282B2 (en) * 2010-10-04 2014-11-04 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for risk prediction for a support actuation system
US8233888B1 (en) * 2010-10-21 2012-07-31 Sprint Communications Company L.P. Leveraging mobile-device analytics for informing and call handling
US8559932B2 (en) 2010-12-20 2013-10-15 Ford Global Technologies, Llc Selective alert processing
US9086297B2 (en) 2011-01-20 2015-07-21 Telenav, Inc. Navigation system having maneuver attempt training mechanism and method of operation thereof
US9452735B2 (en) 2011-02-10 2016-09-27 Ford Global Technologies, Llc System and method for controlling a restricted mode in a vehicle
US8731736B2 (en) 2011-02-22 2014-05-20 Honda Motor Co., Ltd. System and method for reducing driving skill atrophy
WO2012128952A2 (en) * 2011-03-18 2012-09-27 Battelle Memorial Institute Apparatuses and methods of determining if a person operating equipment is experiencing an elevated cognitive load
US9251546B2 (en) 2011-03-22 2016-02-02 The Boeing Company System and method for evaluating operation of a vehicle with respect to a plurality of environmental factors
JP5555274B2 (ja) * 2011-03-28 2014-07-23 株式会社デンソーアイティーラボラトリ 情報提供タイミング管理装置、情報提供タイミング管理方法およびプログラム
US9953468B2 (en) 2011-03-31 2018-04-24 United Parcel Service Of America, Inc. Segmenting operational data
US8644165B2 (en) 2011-03-31 2014-02-04 Navteq B.V. Method and apparatus for managing device operational modes based on context information
US9208626B2 (en) 2011-03-31 2015-12-08 United Parcel Service Of America, Inc. Systems and methods for segmenting operational data
US8522320B2 (en) 2011-04-01 2013-08-27 Ford Global Technologies, Llc Methods and systems for authenticating one or more users of a vehicle communications and information system
US9037523B2 (en) 2011-04-07 2015-05-19 Honeywell International Inc. Multiple two-state classifier output fusion system and method
US9230439B2 (en) * 2011-05-20 2016-01-05 Otodata Wireless Network Inc. Method and system for monitoring interactions with a vehicle
US8788113B2 (en) 2011-06-13 2014-07-22 Ford Global Technologies, Llc Vehicle driver advisory system and method
US10977601B2 (en) 2011-06-29 2021-04-13 State Farm Mutual Automobile Insurance Company Systems and methods for controlling the collection of vehicle use data using a mobile device
US20130006674A1 (en) 2011-06-29 2013-01-03 State Farm Insurance Systems and Methods Using a Mobile Device to Collect Data for Insurance Premiums
US10097993B2 (en) 2011-07-25 2018-10-09 Ford Global Technologies, Llc Method and apparatus for remote authentication
DE102011109564B4 (de) 2011-08-05 2024-05-02 Mercedes-Benz Group AG Verfahren und Vorrichtung zur Überwachung zumindest eines Fahrzeuginsassen und Verfahren zum Betrieb zumindest einer Assistenzvorrichtung
US8849519B2 (en) 2011-08-09 2014-09-30 Ford Global Technologies, Llc Method and apparatus for vehicle hardware theft prevention
DE102011089938B4 (de) * 2011-12-27 2014-05-08 Hochschule für Technik und Wirtschaft Dresden Verfahren zur Unterstützung bei der Führung eines Fahrzeuges und Assistenzsystem zur Durchführung des Verfahrens
US8915738B2 (en) * 2012-01-24 2014-12-23 Toyota Motor Engineering & Manufacturing North America, Inc. Driver quality assessment for driver education
GB201201222D0 (en) * 2012-01-25 2012-03-07 Jaguar Cars Motor vehicle and method of control of a motor vehicle
CA2867447C (en) * 2012-03-15 2021-03-23 Spireon, Inc. Geospatial data based assessment of driver behavior and performance
US8731530B1 (en) * 2012-04-26 2014-05-20 Intelligent Technologies International, Inc. In-vehicle driver cell phone detector
US9042872B1 (en) 2012-04-26 2015-05-26 Intelligent Technologies International, Inc. In-vehicle driver cell phone detector
US9569403B2 (en) 2012-05-03 2017-02-14 Ford Global Technologies, Llc Methods and systems for authenticating one or more users of a vehicle communications and information system
US20140005886A1 (en) * 2012-06-29 2014-01-02 Microsoft Corporation Controlling automotive functionality using internal- and external-facing sensors
US10360636B1 (en) 2012-08-01 2019-07-23 Allstate Insurance Company System for capturing passenger and trip data for a taxi vehicle
US9728228B2 (en) 2012-08-10 2017-08-08 Smartdrive Systems, Inc. Vehicle event playback apparatus and methods
US20140074480A1 (en) * 2012-09-11 2014-03-13 GM Global Technology Operations LLC Voice stamp-driven in-vehicle functions
US20150258996A1 (en) * 2012-09-17 2015-09-17 Volvo Lastvagnar Ab Method for providing a context based coaching message to a driver of a vehicle
US9424696B2 (en) * 2012-10-04 2016-08-23 Zonar Systems, Inc. Virtual trainer for in vehicle driver coaching and to collect metrics to improve driver performance
US8758126B2 (en) * 2012-11-08 2014-06-24 Audible, Inc. In-vehicle gaming system for passengers
DE112013005660T5 (de) * 2012-11-27 2015-08-20 Faurecia Automotive Seating, Llc Fahrzeugsitz mit integrierten Sensoren
US9665997B2 (en) * 2013-01-08 2017-05-30 Gordon*Howard Associates, Inc. Method and system for providing feedback based on driving behavior
US9127955B2 (en) * 2013-01-31 2015-09-08 GM Global Technology Operations LLC Adaptive user guidance for navigation and location-based services
US9688246B2 (en) 2013-02-25 2017-06-27 Ford Global Technologies, Llc Method and apparatus for in-vehicle alarm activation and response handling
US8947221B2 (en) 2013-02-26 2015-02-03 Ford Global Technologies, Llc Method and apparatus for tracking device connection and state change
DE102013203910A1 (de) * 2013-03-07 2014-09-11 Bayerische Motoren Werke Aktiengesellschaft Datenverarbeitungssystem und Verfahren zum Verarbeiten von Trainingsdaten eines Fahrertrainings für Kraftfahrzeuge
US9019092B1 (en) 2013-03-08 2015-04-28 Allstate Insurance Company Determining whether a vehicle is parked for automated accident detection, fault attribution, and claims processing
US10963966B1 (en) 2013-09-27 2021-03-30 Allstate Insurance Company Electronic exchange of insurance information
US8799034B1 (en) 2013-03-08 2014-08-05 Allstate University Company Automated accident detection, fault attribution, and claims processing
US10032226B1 (en) 2013-03-08 2018-07-24 Allstate Insurance Company Automatic exchange of information in response to a collision event
US9141583B2 (en) 2013-03-13 2015-09-22 Ford Global Technologies, Llc Method and system for supervising information communication based on occupant and vehicle environment
US9035756B2 (en) 2013-03-14 2015-05-19 Gordon*Howard Associates, Inc. Methods and systems related to remote tamper detection
US8928471B2 (en) 2013-03-14 2015-01-06 Gordon*Howard Associates, Inc. Methods and systems related to remote tamper detection
US9378480B2 (en) 2013-03-14 2016-06-28 Gordon*Howard Associates, Inc. Methods and systems related to asset identification triggered geofencing
US9002536B2 (en) 2013-03-14 2015-04-07 Ford Global Technologies, Llc Key fob security copy to a mobile phone
US8909212B2 (en) 2013-03-14 2014-12-09 Ford Global Technologies, Llc Method and apparatus for disclaimer presentation and confirmation
US9064420B2 (en) 2013-03-14 2015-06-23 Honda Motor Co., Ltd. Augmented reality heads up display (HUD) for yield to pedestrian safety cues
US9840229B2 (en) 2013-03-14 2017-12-12 Gordon*Howard Associates, Inc. Methods and systems related to a remote tamper detection
US9164281B2 (en) 2013-03-15 2015-10-20 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US8862320B2 (en) 2013-03-14 2014-10-14 Ford Global Technologies, Llc Method and apparatus for ambient lighting incoming message alert
US9747898B2 (en) 2013-03-15 2017-08-29 Honda Motor Co., Ltd. Interpretation of ambiguous vehicle instructions
US10215583B2 (en) 2013-03-15 2019-02-26 Honda Motor Co., Ltd. Multi-level navigation monitoring and control
US9251715B2 (en) 2013-03-15 2016-02-02 Honda Motor Co., Ltd. Driver training system using heads-up display augmented reality graphics elements
US10339711B2 (en) 2013-03-15 2019-07-02 Honda Motor Co., Ltd. System and method for providing augmented reality based directions based on verbal and gestural cues
US9393870B2 (en) 2013-03-15 2016-07-19 Honda Motor Co., Ltd. Volumetric heads-up display with dynamic focal plane
US10445758B1 (en) * 2013-03-15 2019-10-15 Allstate Insurance Company Providing rewards based on driving behaviors detected by a mobile computing device
US9378644B2 (en) 2013-03-15 2016-06-28 Honda Motor Co., Ltd. System and method for warning a driver of a potential rear end collision
US9037340B2 (en) * 2013-03-19 2015-05-19 Ford Global Technologies, Llc System and method for modifying adaptive cruise control set points
US8972103B2 (en) 2013-03-19 2015-03-03 Ford Global Technologies, Llc Method of building and using local map of vehicle drive path
SE537931C2 (sv) * 2013-04-08 2015-11-24 Scania Cv Ab Profilanvändning för infotainment i fordon
US9632210B2 (en) 2013-05-07 2017-04-25 Google Inc. Methods and systems for detecting weather conditions using vehicle onboard sensors
US8983705B2 (en) 2013-04-30 2015-03-17 Google Inc. Methods and systems for detecting weather conditions including fog using vehicle onboard sensors
US9207323B2 (en) 2013-04-11 2015-12-08 Google Inc. Methods and systems for detecting weather conditions including wet surfaces using vehicle onboard sensors
US9025140B2 (en) 2013-05-07 2015-05-05 Google Inc. Methods and systems for detecting weather conditions including sunlight using vehicle onboard sensors
WO2014176478A1 (en) * 2013-04-25 2014-10-30 GM Global Technology Operations LLC Scene awareness system for a vehicle
US10247854B2 (en) 2013-05-07 2019-04-02 Waymo Llc Methods and systems for detecting weather conditions using vehicle onboard sensors
US9619695B2 (en) 2013-06-06 2017-04-11 Visteon Global Technologies, Inc. Gaze time indicator for a vehicle
US9013333B2 (en) 2013-06-24 2015-04-21 Gordon*Howard Associates, Inc. Methods and systems related to time triggered geofencing
JP2014029689A (ja) * 2013-07-30 2014-02-13 Ford Global Technologies Llc 運転者インタフェースタスクを管理する方法、及び、車両
JP5671107B2 (ja) * 2013-07-30 2015-02-18 フォード グローバル テクノロジーズ、リミテッド ライアビリティ カンパニー 車両
JP2014013576A (ja) * 2013-07-30 2014-01-23 Ford Global Technologies Llc 運転者インタフェースシステム、及び、運転者インタフェースタスクを管理する方法、並びに、車両
WO2015029229A1 (ja) * 2013-08-30 2015-03-05 株式会社小松製作所 鉱山機械の管理システム及び管理方法
US10572943B1 (en) 2013-09-10 2020-02-25 Allstate Insurance Company Maintaining current insurance information at a mobile device
US9400564B2 (en) 2013-09-17 2016-07-26 Toyota Motor Engineering & Manufacturing North America, Inc. Interactive vehicle window display system with a safe driving reminder system
US9340155B2 (en) * 2013-09-17 2016-05-17 Toyota Motor Sales, U.S.A., Inc. Interactive vehicle window display system with user identification
US9807196B2 (en) 2013-09-17 2017-10-31 Toyota Motor Sales, U.S.A. Automated social network interaction system for a vehicle
US9387824B2 (en) 2013-09-17 2016-07-12 Toyota Motor Engineering & Manufacturing North America, Inc. Interactive vehicle window display system with user identification and image recording
US9443270B1 (en) 2013-09-17 2016-09-13 Allstate Insurance Company Obtaining insurance information in response to optical input
US10272920B2 (en) * 2013-10-11 2019-04-30 Panasonic Intellectual Property Corporation Of America Processing method, program, processing apparatus, and detection system
US9151631B2 (en) * 2013-10-14 2015-10-06 Ford Global Technologies, Llc Vehicle fueling route planning
US9501878B2 (en) 2013-10-16 2016-11-22 Smartdrive Systems, Inc. Vehicle event playback apparatus and methods
US20150121246A1 (en) * 2013-10-25 2015-04-30 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting user engagement in context using physiological and behavioral measurement
US9172477B2 (en) 2013-10-30 2015-10-27 Inthinc Technology Solutions, Inc. Wireless device detection using multiple antennas separated by an RF shield
US9610955B2 (en) 2013-11-11 2017-04-04 Smartdrive Systems, Inc. Vehicle fuel consumption monitor and feedback systems
US9805521B1 (en) 2013-12-03 2017-10-31 United Parcel Service Of America, Inc. Systems and methods for assessing turns made by a vehicle
US9188449B2 (en) * 2013-12-06 2015-11-17 Harman International Industries, Incorporated Controlling in-vehicle computing system based on contextual data
KR101539302B1 (ko) * 2013-12-11 2015-07-30 현대자동차주식회사 차량 및 그 제어방법
US9251630B2 (en) * 2013-12-17 2016-02-02 At&T Intellectual Property I, L.P. Method, computer-readable storage device and apparatus for exchanging vehicle information
US8892310B1 (en) 2014-02-21 2014-11-18 Smartdrive Systems, Inc. System and method to detect execution of driving maneuvers
US9568030B2 (en) * 2014-03-24 2017-02-14 Caterpillar Inc. System and method for managing machine power system
US9304515B2 (en) 2014-04-24 2016-04-05 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Regional operation modes for autonomous vehicles
US9349284B2 (en) 2014-04-24 2016-05-24 International Business Machines Corporation Regional driving trend modification using autonomous vehicles
KR101575051B1 (ko) * 2014-06-13 2015-12-21 엘지전자 주식회사 웨어러블 디바이스 및 그 제어방법
GB2529997B (en) * 2014-05-01 2019-01-02 Jaguar Land Rover Ltd Vehicle communication system with occupant monitoring
DE102014006668A1 (de) 2014-05-07 2014-10-30 Daimler Ag Verfahren zur Unterstützung eines Fahrers beim Fahren eines Fahrzeugs
CN103985167B (zh) * 2014-05-16 2017-03-29 方昌銮 一种车辆运输工作量统计方法
US10185999B1 (en) 2014-05-20 2019-01-22 State Farm Mutual Automobile Insurance Company Autonomous feature use monitoring and telematics
US9234764B2 (en) 2014-05-20 2016-01-12 Honda Motor Co., Ltd. Navigation system initiating conversation with driver
US20210133871A1 (en) 2014-05-20 2021-05-06 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature usage recommendations
US10599155B1 (en) 2014-05-20 2020-03-24 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US11669090B2 (en) 2014-05-20 2023-06-06 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US10319039B1 (en) 2014-05-20 2019-06-11 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
US9972054B1 (en) 2014-05-20 2018-05-15 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
US10373259B1 (en) 2014-05-20 2019-08-06 State Farm Mutual Automobile Insurance Company Fully autonomous vehicle insurance pricing
US9248842B1 (en) 2014-07-14 2016-02-02 Toyota Motor Engineering & Manufacturing North America, Inc. Environment-based function lock system for a vehicle
US9786154B1 (en) 2014-07-21 2017-10-10 State Farm Mutual Automobile Insurance Company Methods of facilitating emergency assistance
US9972184B2 (en) * 2014-07-24 2018-05-15 State Farm Mutual Automobile Insurance Company Systems and methods for monitoring a vehicle operator and for monitoring an operating environment within the vehicle
US9776639B2 (en) * 2014-08-05 2017-10-03 Launch Tech Co., Ltd. Method, and apparatus, and system for generating driving behavior guiding information
US9663127B2 (en) 2014-10-28 2017-05-30 Smartdrive Systems, Inc. Rail vehicle event detection and recording system
DE102015105581A1 (de) * 2014-11-03 2016-05-04 Audi Ag System und Verfahren zur Überwachung des Gesundheitszustandes und/oder des Befindens eines Fahrzeuginsassen
US11069257B2 (en) 2014-11-13 2021-07-20 Smartdrive Systems, Inc. System and method for detecting a vehicle event and generating review criteria
US10241509B1 (en) 2014-11-13 2019-03-26 State Farm Mutual Automobile Insurance Company Autonomous vehicle control assessment and selection
US10607095B1 (en) * 2015-01-13 2020-03-31 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for classifying digital images
US10713717B1 (en) 2015-01-22 2020-07-14 Allstate Insurance Company Total loss evaluation and handling system and method
US10137902B2 (en) * 2015-02-12 2018-11-27 Harman International Industries, Incorporated Adaptive interactive voice system
US9679420B2 (en) 2015-04-01 2017-06-13 Smartdrive Systems, Inc. Vehicle event recording system and method
US10249123B2 (en) 2015-04-09 2019-04-02 Ford Global Technologies, Llc Systems and methods for mobile phone key fob management
US9767625B1 (en) 2015-04-13 2017-09-19 Allstate Insurance Company Automatic crash detection
US10083551B1 (en) 2015-04-13 2018-09-25 Allstate Insurance Company Automatic crash detection
US20160334225A1 (en) 2015-05-11 2016-11-17 United Parcel Service Of America, Inc. Determining street segment headings
US10226702B2 (en) * 2015-05-25 2019-03-12 International Business Machines Corporation Vehicle entertainment system
US9167418B1 (en) * 2015-06-22 2015-10-20 Invictus Technology Group, Inc. Method and apparatus for controlling input to a mobile computing device located inside a vehicle
US11107365B1 (en) 2015-08-28 2021-08-31 State Farm Mutual Automobile Insurance Company Vehicular driver evaluation
US11307042B2 (en) 2015-09-24 2022-04-19 Allstate Insurance Company Three-dimensional risk maps
US11332061B2 (en) 2015-10-26 2022-05-17 Atnomity Ltd. Unmanned carrier for carrying urban manned vehicles
US10710608B2 (en) 2015-10-26 2020-07-14 Active Knowledge Ltd. Provide specific warnings to vehicle occupants before intense movements
US10717406B2 (en) 2015-10-26 2020-07-21 Active Knowledge Ltd. Autonomous vehicle having an external shock-absorbing energy dissipation padding
GB2545073A (en) 2015-10-26 2017-06-07 Active Knowledge Ltd Combining video see-through that imitates an automobile window with other video
US10059347B2 (en) 2015-10-26 2018-08-28 Active Knowledge Ltd. Warning a vehicle occupant before an intense movement
US10997534B2 (en) 2015-11-20 2021-05-04 Caterpillar Inc. System and method for connecting an operator with worksite operations
US9779562B1 (en) * 2015-12-21 2017-10-03 Lytx, Inc. System for automatically characterizing a vehicle
US9701279B1 (en) 2016-01-12 2017-07-11 Gordon*Howard Associates, Inc. On board monitoring device
US10395332B1 (en) 2016-01-22 2019-08-27 State Farm Mutual Automobile Insurance Company Coordinated autonomous vehicle automatic area scanning
US11441916B1 (en) 2016-01-22 2022-09-13 State Farm Mutual Automobile Insurance Company Autonomous vehicle trip routing
US11719545B2 (en) 2016-01-22 2023-08-08 Hyundai Motor Company Autonomous vehicle component damage and salvage assessment
US11242051B1 (en) 2016-01-22 2022-02-08 State Farm Mutual Automobile Insurance Company Autonomous vehicle action communications
US9940834B1 (en) 2016-01-22 2018-04-10 State Farm Mutual Automobile Insurance Company Autonomous vehicle application
US10324463B1 (en) 2016-01-22 2019-06-18 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation adjustment based upon route
US10134278B1 (en) 2016-01-22 2018-11-20 State Farm Mutual Automobile Insurance Company Autonomous vehicle application
US20210295439A1 (en) 2016-01-22 2021-09-23 State Farm Mutual Automobile Insurance Company Component malfunction impact assessment
CN107107888A (zh) * 2016-02-22 2017-08-29 深圳市元征科技股份有限公司 汽车尾气检测及控制方法及装置
US10699347B1 (en) 2016-02-24 2020-06-30 Allstate Insurance Company Polynomial risk maps
US9639804B1 (en) 2016-03-22 2017-05-02 Smartdrive Systems, Inc. System and method to determine responsiveness of a driver of a vehicle to feedback regarding driving behaviors
US10918337B2 (en) 2016-06-03 2021-02-16 Faurecia Automotive Seating, Llc Vehicle seat with integrated sensors
DE102016110798A1 (de) * 2016-06-13 2017-12-14 365FarmNet Group GmbH & Co. KG Verfahren zur Zustandsakquisition einer landwirtschaftlichen Arbeitseinheit
US11197637B2 (en) 2016-06-20 2021-12-14 Faurecia Automotive Seating, Llc Control system for a vehicle seat
US11173919B2 (en) * 2016-07-20 2021-11-16 Toyota Motor Europe Control device, system and method for determining a comfort level of a driver
US10730524B2 (en) 2016-09-07 2020-08-04 Faurecia Automotive Seating, Llc Vehicle seat
US10825354B2 (en) 2016-09-09 2020-11-03 Apex Pro, LLC Performance coaching method and apparatus
US11361380B2 (en) 2016-09-21 2022-06-14 Allstate Insurance Company Enhanced image capture and analysis of damaged tangible objects
US10902525B2 (en) 2016-09-21 2021-01-26 Allstate Insurance Company Enhanced image capture and analysis of damaged tangible objects
DE102016218719A1 (de) * 2016-09-28 2018-03-29 Robert Bosch Gmbh Verfahren und Steuereinheit zur Fahreridentifikation, sowie Fahreridentifikationssystem
US10264111B2 (en) 2016-10-04 2019-04-16 Allstate Solutions Private Limited Mobile device communication access and hands-free device activation
US9979813B2 (en) 2016-10-04 2018-05-22 Allstate Solutions Private Limited Mobile device communication access and hands-free device activation
US11295218B2 (en) 2016-10-17 2022-04-05 Allstate Solutions Private Limited Partitioning sensor based data to generate driving pattern map
US10977956B1 (en) * 2016-11-01 2021-04-13 State Farm Mutual Automobile Insurance Company Systems and methods for virtual reality based driver training
DE102016224635A1 (de) * 2016-12-09 2018-06-14 Zf Friedrichshafen Ag Bedieneinrichtung für ein Infotainmentsystem eines Kraftfahrzeugs, Verfahren zur Ermittlung des Aufenthaltsortes einer Bedienperson eines solchen Bedienelements
CN106740857A (zh) * 2017-01-09 2017-05-31 张军 一种基于多核处理器的智能行车预警***原型
CN106585641A (zh) * 2017-01-11 2017-04-26 张军 一种基于多核处理器的智能行车预警***架构
JP6499682B2 (ja) 2017-01-31 2019-04-10 本田技研工業株式会社 情報提供システム
DE102017201728B4 (de) 2017-02-03 2022-02-17 Audi Ag Steuervorrichtung zum Erzeugen von Steuerdaten für Aktuatoren zum Konfigurieren einer Innenraumsituation eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Betreiben einer Steuervorrichtung
US10338802B2 (en) * 2017-02-08 2019-07-02 International Business Machines Corporation Monitoring an activity and determining the type of actor performing the activity
US11225267B2 (en) * 2017-03-10 2022-01-18 The Hi-Tech Robotic Systemz Ltd Single casing advanced driver assistance system
CN107025704A (zh) * 2017-03-14 2017-08-08 上海小蚁科技有限公司 基于加速度传感器的驾驶行为检测方法及装置、行车记录仪和汽车
US10937103B1 (en) 2017-04-21 2021-03-02 Allstate Insurance Company Machine learning based accident assessment
US10654411B2 (en) * 2017-07-26 2020-05-19 Uber Technologies, Inc. Detecting service provider state based on received and historic telematics data and service provider characteristics
US11083379B2 (en) 2017-08-02 2021-08-10 Faurecia Automotive Seating, Llc Health-monitoring seat cover
US10424127B2 (en) 2017-08-28 2019-09-24 GM Global Technology Operations LLC Controller architecture for monitoring health of an autonomous vehicle
US11562656B2 (en) * 2017-11-27 2023-01-24 BlueOwl, LLC Systems and methods for improving driver safety using uplift modeling
US11001273B2 (en) * 2018-05-22 2021-05-11 International Business Machines Corporation Providing a notification based on a deviation from a determined driving behavior
EP3576074A1 (en) * 2018-06-01 2019-12-04 Volvo Car Corporation Method and system for assisting drivers to drive with precaution
JP7163625B2 (ja) * 2018-06-06 2022-11-01 日本電信電話株式会社 移動支援情報提示制御装置、方法およびプログラム
US10850746B2 (en) * 2018-07-24 2020-12-01 Harman International Industries, Incorporated Coordinating delivery of notifications to the driver of a vehicle to reduce distractions
US10699556B1 (en) 2019-03-01 2020-06-30 Honeywell International Inc. System and method for plant operation gap analysis and guidance solution
US11308800B2 (en) 2019-12-05 2022-04-19 Toyota Motor North America, Inc. Transport impact reporting based on sound levels
US10832699B1 (en) 2019-12-05 2020-11-10 Toyota Motor North America, Inc. Impact media sharing
US11107355B2 (en) 2019-12-05 2021-08-31 Toyota Motor North America, Inc. Transport dangerous driving reporting
US11769426B2 (en) * 2020-02-18 2023-09-26 BlueOwl, LLC Systems and methods for creating driving challenges
JP2021149246A (ja) * 2020-03-17 2021-09-27 Necフィールディング株式会社 安全運転支援装置、システム、方法、及びプログラム
DE102020133235A1 (de) 2020-12-11 2022-06-15 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum betreiben eines fahrzeugs und einer telefon-vorrichtung, kraftfahrzeug und computerprogrammprodukt
US11845457B2 (en) 2021-02-19 2023-12-19 Toyota Research Institute, Inc. System and method for training an operator of a vehicle
US20230166738A1 (en) * 2021-11-30 2023-06-01 Continental Automotive Systems, Inc. Operator reaction time caulcation for street vehicles
DE102022102442A1 (de) 2022-02-02 2023-08-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Priorisierung von Ausgabeelementen an einen Fahrer eines Fahrzeugs
US20240070595A1 (en) * 2022-08-31 2024-02-29 Carnegie Robotics, Llc Method for evaluating performance of an operator of a service vehicle
EP4385847A1 (en) 2022-12-17 2024-06-19 ZF CV Systems Global GmbH Method for improving driver behaviour by identifying behaviour of driver when driving on a speed bump, commercial vehicle, server and computer program
FR3144092A1 (fr) 2022-12-21 2024-06-28 Renault S.A.S Procédé mis en œuvre par ordinateur d’aide à la conduite d’un véhicule automobile

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2164334A5 (es) * 1971-12-06 1973-07-27 Lead
US4275378A (en) 1978-05-23 1981-06-23 Kiloking (Proprietary) Limited Monitoring the operation of a vehicle
US4933852A (en) 1979-08-22 1990-06-12 Lemelson Jerome H Machine operation indicating system and method
JPS5790106A (en) 1980-11-26 1982-06-04 Nippon Denso Co Ltd Driving indicator for automobile
US4843578A (en) * 1984-10-01 1989-06-27 Wade Ted R Vehicle speed monitoring and logging means
US4716458A (en) 1987-03-06 1987-12-29 Heitzman Edward F Driver-vehicle behavior display apparatus
JPH01195139A (ja) 1988-01-30 1989-08-07 Suzuki Motor Co Ltd エンジン出力制御装置
JP2625148B2 (ja) 1988-04-11 1997-07-02 富士重工業株式会社 車載電子制御装置
US4945759A (en) 1989-02-27 1990-08-07 Gary F. Krofchalk Vehicle performance monitoring system
US5074144A (en) 1989-02-27 1991-12-24 Gary F. Krofchalk Vehicle performance monitoring system
DE3927921C1 (es) 1989-08-24 1990-07-26 Dr.Ing.H.C. F. Porsche Ag, 7000 Stuttgart, De
SE9002650D0 (sv) 1990-08-15 1990-08-15 Sses Ab Saett och anordning vid fordon
US5207095A (en) 1991-10-11 1993-05-04 Liberty Mutual Insurance Company Vehicle braking technique evaluation apparatus
EP0576703B1 (de) 1992-06-30 1995-11-02 Siemens Aktiengesellschaft Getriebesteuerung
US5465079A (en) 1992-08-14 1995-11-07 Vorad Safety Systems, Inc. Method and apparatus for determining driver fitness in real time
US5769085A (en) 1993-01-06 1998-06-23 Mitsubishi Jidosha Kogyo Kabushiki Kaisha Apparatus for detecting awareness of a vehicle driver and method thereof
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US5482314A (en) 1994-04-12 1996-01-09 Aerojet General Corporation Automotive occupant sensor system and method of operation by sensor fusion
US5499182A (en) 1994-12-07 1996-03-12 Ousborne; Jeffrey Vehicle driver performance monitoring system
US6278362B1 (en) * 1995-01-12 2001-08-21 Honda Giken Kogyo Kabushiki Kaisha Driving state-monitoring apparatus for automotive vehicles
DE19630970B4 (de) * 1995-08-01 2008-12-24 Honda Giken Kogyo K.K. Fahrzustandsüberwachungseinrichtung für Kraftfahrzeuge
US5797134A (en) * 1996-01-29 1998-08-18 Progressive Casualty Insurance Company Motor vehicle monitoring system for determining a cost of insurance
US6021369A (en) * 1996-06-27 2000-02-01 Yamaha Hatsudoki Kabushiki Kaisha Integrated controlling system
JP3272960B2 (ja) 1996-08-19 2002-04-08 株式会社データ・テック ドライビングレコーダ及び車両の運行解析装置
JPH10313359A (ja) 1997-05-12 1998-11-24 Nec Corp 自動応答電話装置
US6249720B1 (en) * 1997-07-22 2001-06-19 Kabushikikaisha Equos Research Device mounted in vehicle
US5978729A (en) * 1997-10-15 1999-11-02 Caterpillar Inc. Electronic engine control and method of operating same
NL1009775C2 (nl) 1998-07-30 2000-02-01 Univ Twente Systeem en werkwijze voor het efficiënt besturen van een motorvoertuig.
US6268803B1 (en) 1998-08-06 2001-07-31 Altra Technologies Incorporated System and method of avoiding collisions
JP3044025B1 (ja) 1998-12-09 2000-05-22 株式会社データ・テック 運転傾向性の分析が可能な運行管理システム及びその構成装置
SE9804124D0 (sv) 1998-11-26 1998-11-26 Greger Andersson Förfarande för att kartlägga förarbeteenden samt anläggning för förfarandets genomförande
US6227862B1 (en) * 1999-02-12 2001-05-08 Advanced Drivers Education Products And Training, Inc. Driver training system
US6200139B1 (en) * 1999-02-26 2001-03-13 Intel Corporation Operator training system
ATA47899A (de) 1999-03-17 2003-06-15 Fahrertraining & Motorsportman Verfahren und vorrichtung zur überwachung der fahrtüchtigkeit einer ein fahrzeug oder einen fahrsimulator steuernden person
JP3831171B2 (ja) * 1999-05-06 2006-10-11 日産自動車株式会社 車両用報知装置
US6370454B1 (en) 2000-02-25 2002-04-09 Edwin S. Moore Iii Apparatus and method for monitoring and maintaining mechanized equipment
US6285930B1 (en) 2000-02-28 2001-09-04 Case Corporation Tracking improvement for a vision guidance system
US6980092B2 (en) 2000-04-06 2005-12-27 Gentex Corporation Vehicle rearview mirror assembly incorporating a communication system
US20020103622A1 (en) 2000-07-17 2002-08-01 Burge John R. Decision-aid system based on wirelessly-transmitted vehicle crash sensor information
US6721644B2 (en) 2000-08-02 2004-04-13 Alfred B. Levine Vehicle drive override subsystem
US6356812B1 (en) 2000-09-14 2002-03-12 International Business Machines Corporation Method and apparatus for displaying information in a vehicle
US6564127B1 (en) 2000-10-25 2003-05-13 General Motors Corporation Data collection via a wireless communication system
US7353897B2 (en) * 2003-07-23 2008-04-08 Fernandez Dennis S Telematic method and apparatus with integrated power source
US7188012B2 (en) * 2004-08-24 2007-03-06 Ford Global Technologies, Llc Adaptive voice control and vehicle collision warning and countermeasure system
US20060215821A1 (en) * 2005-03-23 2006-09-28 Rokusek Daniel S Voice nametag audio feedback for dialing a telephone call

Also Published As

Publication number Publication date
JP2004518461A (ja) 2004-06-24
US7565230B2 (en) 2009-07-21
WO2002030700A8 (en) 2002-12-27
KR20030070889A (ko) 2003-09-02
WO2002030700A2 (en) 2002-04-18
EP1326759B1 (en) 2006-11-29
DE60124937D1 (de) 2007-01-11
JP2008282022A (ja) 2008-11-20
US20020091473A1 (en) 2002-07-11
WO2002030700A3 (en) 2002-09-12
ATE346764T1 (de) 2006-12-15
EP1326759B8 (en) 2008-04-23
DE60124937T2 (de) 2007-09-20
EP1326759A2 (en) 2003-07-16

Similar Documents

Publication Publication Date Title
ES2275748T3 (es) Metodo y aparato para mejorar la ejecuccion del operativo de una vehiculo.
ES2254526T3 (es) Sistema y procedimiento que permite mejorar el comportamiento de un conductor.
ES2256319T3 (es) Metodo de evaluacion y de mejoras del comportamiento de un conductor de vehiculo y dispositivo a este efecto.
US6580973B2 (en) Method of response synthesis in a driver assistance system
US20020151297A1 (en) Context aware wireless communication device and method
US7292152B2 (en) Method and apparatus for classifying vehicle operator activity state
JP2021144580A (ja) ドライバ状態推定装置