DE102016119729A1 - Steuern eines Personenbeförderungsfahrzeugs mit Rundumsichtkamerasystem - Google Patents

Steuern eines Personenbeförderungsfahrzeugs mit Rundumsichtkamerasystem Download PDF

Info

Publication number
DE102016119729A1
DE102016119729A1 DE102016119729.7A DE102016119729A DE102016119729A1 DE 102016119729 A1 DE102016119729 A1 DE 102016119729A1 DE 102016119729 A DE102016119729 A DE 102016119729A DE 102016119729 A1 DE102016119729 A1 DE 102016119729A1
Authority
DE
Germany
Prior art keywords
camera
detection system
evaluation device
control signal
passenger transport
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016119729.7A
Other languages
English (en)
Inventor
Swaroop Kaggere Shivamurthy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Priority to DE102016119729.7A priority Critical patent/DE102016119729A1/de
Priority to PCT/EP2017/069922 priority patent/WO2018072908A1/en
Publication of DE102016119729A1 publication Critical patent/DE102016119729A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62JCYCLE SADDLES OR SEATS; AUXILIARY DEVICES OR ACCESSORIES SPECIALLY ADAPTED TO CYCLES AND NOT OTHERWISE PROVIDED FOR, e.g. ARTICLE CARRIERS OR CYCLE PROTECTORS
    • B62J27/00Safety equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62KCYCLES; CYCLE FRAMES; CYCLE STEERING DEVICES; RIDER-OPERATED TERMINAL CONTROLS SPECIALLY ADAPTED FOR CYCLES; CYCLE AXLE SUSPENSIONS; CYCLE SIDE-CARS, FORECARS, OR THE LIKE
    • B62K11/00Motorcycles, engine-assisted cycles or motor scooters with one or two wheels
    • B62K11/007Automatic balancing machines with single main ground engaging wheel or coaxial wheels supporting a rider
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0891Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Selbstfahrende Personenbeförderungsfahrzeuge sollen in ihrer Umgebung sicherer zurechtkommen. Daher wird ein Kameraerfassungssystem zum Steuern eines Personenbeförderungsfahrzeugs mit einer ersten Kamera (8) zum Gewinnen eines ersten Bildsignals und einer Auswerteeinrichtung zum Detektieren eines Objekts und zum Bereitstellen eines entsprechenden Steuersignals für das Personenbeförderungsfahrzeug (1) bereitgestellt. Mindestens eine zweite Kamera (9) ist zum Gewinnen mindestens eines zweiten Bildsignals in dem Kameraerfassungssystem enthalten. Die erste Kamera (8) und die mindestens eine zweite Kamera (9) sowie die Auswerteeinrichtung sind dazu ausgebildet, anhand der Bildsignale eine Rundumsicht zu erstellen. Schließlich ist die Auswerteeinrichtung auch dazu ausgebildet, das Objekt in der Rundumsicht zu detektieren und davon abhängig das Steuersignal zu erzeugen.

Description

  • Die vorliegende Erfindung betrifft ein Kameraerfassungssystem zum Steuern eines Personenbeförderungsfahrzeugs mit einer Kamera zum Gewinnen eines Bildsignals und einer Auswerteeinrichtung zum Detektieren eines Objekts und zum Bereitstellen eines entsprechenden Steuersignals für das Personenbeförderungsfahrzeug. Darüber hinaus betrifft die vorliegende Erfindung ein entsprechendes Personenbeförderungsfahrzeug mit einem solchen Kameraerfassungssystem. Ferner betrifft die vorliegende Erfindung ein Verfahren zum Steuern eines Personenbeförderungsfahrzeugs durch Gewinnen eines Bildsignals mit einer Kamera und Detektieren eines Objekts und Bereitstellen eines entsprechenden Steuersignals für das Personenbeförderungsfahrzeug.
  • Autonome Fahrzeuge detektieren Hindernisse in ihrer Umgebung meist mittels Radar und Lidar sowie basierend auf GPS, Odometrie und computergestützten Abbildungssystemen. Moderne Steuersysteme interpretieren Sensorinformationen, um geeignete Navigationsrouten zu identifizieren, ebenso wie Hindernisse und relevante Verkehrszeichen. Oftmals besitzen diese Fahrzeuge jedoch keine Ausstattung dafür, die beförderte Person selbst zu schützen. Es ist jedoch äußerst wichtig, einen derartigen Schutz für die jeweilige Person bereitzustellen.
  • Es sind zahlreiche Arten von Personenbeförderungsfahrzeugen bekannt. Die vorliegende Anmeldung zielt jedoch hauptsächlich auf Einpersonen-Transportmittel, die einachsig oder mehrachsig sein können. Beispiele für derartige Einpersonen-Transportmittel sind „Segways“, „Hoverboards“, aber auch Rollstühle.
  • Ein „Segway“ ist ein selbstbalancierendes, einachsiges Motorfahrzeug, das Gyroskope nutzt, um die Balance zu halten. Es dient in erster Linie dazu, um Personen von einem Ort zum anderen zu transportieren. Segways sind elektrische Zweiräder, die umweltschonende Transportmittel darstellen und einen geringen Energieverbrauch besitzen. Während Segways in der Regel in der Mitte eine Haltestange besitzen, stellen die sogenannten „Hoverboards“ Zweiräder dar, welche lediglich eine geteilte Standfläche besitzen. Letztere zählen aber ebenfalls zu den selbstbalancierenden Personentransportmitteln.
  • Die Probleme der Sicherheit der transportierten Personen bestehen auch beispielsweise in Krankenhäusern mit elektrischen Rollstühlen. Derartige elektrische Rollstühle werden nämlich in Krankenhäusern benutzt, um automatisch bzw. automatisiert Patienten von einem Ort zum anderen zu transportieren.
  • Aus der Druckschrift KR 2015 0027987 ist ein autonomes Kontrollverfahren umfassend eine Kamera und Ultraschallsensoren für einen elektrischen Rollstuhl bekannt. Der Rollstuhl empfängt Abstandsinformationen und Bildinformationen von den Sensoren und der Kamera bezüglich Objekten, welche sich vor dem Rollstuhl befinden.
  • Darüber hinaus beschreibt die Druckschrift WO 15192610 ein Verfahren, bei dem ein Rollstuhl mit Hilfe eines Gehirn-Computer-Interface gesteuert werden kann. Mit einer Webcam werden Objekte zwischen einer Startposition und einer Zielposition des Rollstuhls erfasst. Eine Route von der Startposition zur Zielposition wird berechnet und der Rollstuhl folgt der Route.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, die Sicherheit von Personenbeförderungsfahrzeugen zu erhöhen.
  • Erfindungsgemäß wird diese Aufgabe durch ein Kameraerfassungssystem nach Anspruch 1 gelöst. Darüber hinaus wird ein entsprechendes Personenbeförderungsfahrzeug gemäß Anspruch 8 bereitgestellt. Ferner wird obige Aufgabe gelöst durch das Verfahren nach Patentanspruch 12. Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den Unteransprüchen.
  • Gemäß der vorliegenden Erfindung wird demnach ein Kameraerfassungssystem zum Steuern eines Personenbeförderungsfahrzeugs mit einer ersten Kamera zum Gewinnen eines ersten Bildsignals und einer Auswerteeinrichtung zum Detektieren eines Objekts und zum Bereitstellen eines entsprechenden Steuersignals für das Personenbeförderungsfahrzeug bereitgestellt. Das System weist also eine Kamera zur optischen Aufnahme der Umgebung, aber auch eine Auswerteeinrichtung zum Auswerten des Bildsignals der Kamera auf. Dabei ist die Auswerteeinrichtung dazu bestimmt, eines oder mehrere vorgegebene Objekte bzw. Objekttypen zu detektieren. Wird dann ein Objekt eines vorgegebenen Objekttyps detektiert, so kann für das Personenbeförderungsfahrzeug ein Steuersignal bereitgestellt werden, das das detektierte Objekt berücksichtigt. Insbesondere kann dadurch beispielsweise das Personenbeförderungsfahrzeug so gesteuert (gelenkt, gebremst bzw. beschleunigt) werden, dass es nicht mit dem Objekt kollidiert.
  • Das Kameraerfassungssystem weist mindestens eine zweite Kamera zum Gewinnen mindestens eines zweiten Bildsignals auf. Dies bedeutet, dass die Umgebung des Kameraerfassungssystems mit mindestens zwei Kameras beobachtet werden kann. Das Kameraerfassungssystem kann also eine dritte Kamera zum Gewinnen eines dritten Bildsignals, eine vierte Kamera zum Gewinnen eines vierten Bildsignals usw. enthalten.
  • Die erste Kamera und die mindestens eine zweite Kamera sowie die Auswerteeinrichtung sind dazu ausgebildet, anhand der Bildsignale eine Rundumsicht zu erstellen. Es wird also auf der Basis der Bildsignale der mehreren Kameras des Kameraerfassungssystems eine vollständige Rundumsicht mit 360°erzeugt. Entsprechend kann das Kameraerfassungssystem auch als Surround-View-Kamerasystem bezeichnet werden.
  • Die Auswerteeinrichtung ist außerdem dazu ausgebildet, das Objekt in der Rundumsicht zu detektieren und davon abhängig das Steuersignal zu erzeugen. Es wird also die gewonnene Rundumsicht dazu genutzt, um dort beispielsweise mittels Bildverarbeitung nach dem bzw. den vorgegebenen Objekttypen zu suchen. Falls dann ein entsprechendes Objekt des gesuchten Objekttyps detektiert wird, wird das Steuersignal entsprechend gestaltet. In vorteilhafter Weise kann damit das Personenbeförderungsfahrzeug so gesteuert werden, dass Objekte im gesamten Umfeld des Kameraerfassungssystems bzw. des Personenbeförderungsfahrzeugs berücksichtigt werden. Hierdurch lässt sich die Sicherheit für die zu transportierenden Personen erheblich erhöhen.
  • In einer Ausgestaltung des Kameraerfassungssystems ist es möglich mit der Auswerteeinrichtung einen Bordstein oder eine Straßenkante als das Objekt zu detektieren. Dies bedeutet, dass der vorgegebene Objekttyp beispielsweise ein Bordstein oder eine Straßenkante ist. Um einen solchen Bordstein oder eine Straßenkante zu detektieren, weist die Auswerteeinrichtung beispielsweise einen Kantendetektor oder dergleichen auf. Wird dann konkret ein Bordstein oder eine Straßenkante detektiert, können diese als Grenzen eines befahrbaren Bereichs (z.B. Straße) interpretiert werden. Das Steuersignal kann damit so gestaltet werden, dass mit dem Personenbeförderungsfahrzeug lediglich der befahrbare Bereich befahrbar ist.
  • In einer spezifischen Weiterbildung ist mit der Auswerteeinrichtung anhand eines oder mehrerer detektierter Bordsteine oder Straßenkanten in der Rundumsicht eine von einer Straße abweichende Seitenstraße erkennbar. Damit kann eine Navigation beispielsweise vereinfacht auf der Basis registrierter Seitenstraßen durchgeführt werden.
  • In einer weiteren Ausgestaltung ist die Auswerteeinrichtung so ausgebildet, dass ein Fußgängerüberweg oder ein Fußweg als das Objekt detektiert werden kann. Der Objekttyp lautet demnach „Fußgängerüberweg“ oder „Fußweg“. Einer solchen Detektion kann eine komplexere Bildverarbeitung zugrunde liegen. Auch hier können Kantendetektoren zum Einsatz kommen. Falls die Auswerteeinrichtung derartige Fußgängerüberwege oder Fußwege detektieren kann, schließt dies natürlich nicht aus, dass sie auch Bordsteine oder Straßenkanten detektieren kann. Gegebenenfalls kann die Auswerteeinrichtung also auch mehrere, insbesondere mehrere unterschiedliche Objekte bzw. Objekttypen detektieren und für das Steuersignal verwerten.
  • Eine weitere Ausführungsvariante sieht vor, dass das Kameraerfassungssystem ein GPS-Modul aufweist, dessen Signal die Auswerteeinrichtung zum Erzeugen des Steuersignals nutzt. Somit können satellitengestützt Positionsdaten des Kameraerfassungssystems ermittelt werden, welche sich dann für eine Routenplanung nutzen lassen. Das Personenbeförderungsfahrzeug kann so in die Lage versetzt werden, aufgrund der eigenen detektierten Position und einer vorgegebenen bzw. vorgebbaren Zielposition den Weg zur Zielposition selbständig zu finden bzw. dorthin automatisch zu fahren. Hierzu kann das Kameraerfassungssystem bzw. die Auswerteeinrichtung eine spezielle Fahrstreckenplanungseinheit aufweisen, mit der eine Route zu einem vorgegebenen Ziel ermittelbar ist, wobei das Steuersignal entsprechend der Route erzeugt wird.
  • Vorzugsweise ist mit der Auswerteeinrichtung in der Rundumsicht ein befahrbarer Untergrund in Sektoren einteilbar, jeder Sektor für das Erzeugen des Steuersignals nach einem oder mehreren Kriterien klassierbar und das Steuersignal in Abhängigkeit von der Klassierung erzeugbar. Dies bedeutet, dass das von der Umgebung erzeugte Bild, das einer Rundumsicht bzw. einem Surround-View entspricht, in einzelne Sektoren zerlegt wird. Beispielsweise wird der gesamte Winkelbereich von 360°in 10, 20, 30 oder mehr Sektoren zerlegt. Auch jede andere beliebige Zahl dazwischen ist denkbar. Die einzelnen Sektoren müssen auch nicht identischen Öffnungswinkel besitzen. Beispielsweise könnte der Winkel davon abhängig gemacht werden, wie lang der Sektor in radialer Richtung ist. Dabei kann die Länge durch ein Objekt begrenzt sein, welches das Kameraerfassungssystem in dem jeweiligen Sektor registriert.
  • Die Sektoren können klassiert werden, d.h. sie werden vorgegebenen Klassen zugeordnet. Beispielsweise kann eine Klasse für Sektoren darin bestehen, dass sie ein oder mehrere Hindernisse enthält. Ein so klassierter Sektor sollte nicht befahren werden. Ein Steuersignal für das Personenbeförderungsfahrzeug bzw. seine Antriebseinheit könnte entsprechend erzeugt werden. Eine andere Klasse von Sektoren könnte dadurch gekennzeichnet sein, dass der jeweilige Sektor zumindest über eine vorgegebene Grenze hinaus befahrbar ist. Ein solcher Sektor ist entsprechend der Auswertung der Auswerteeinrichtung leer und sicher befahrbar. Eine weitere Klasse von Sektoren könnte diejenigen Sektoren enthalten, die in etwa bzw. mit einer vorgegebenen Bandbreite in Richtung einer für ein vorgegebenes Ziel berechneten Route liegen. Derart klassierte Sektoren sollten dann vorzugsweise befahren werden.
  • Es wurde bereits angedeutet, dass ein Personenbeförderungsfahrzeug vorteilhafterweise mit dem genannten Kameraerfassungssystem ausgestattet sein kann. Somit lässt sich das Kameraerfassungssystem mit Rundumsicht zur sicheren Steuerung des Personenbeförderungsfahrzeugs nutzen.
  • Bei dem Personenbeförderungsfahrzeug kann es sich beispielsweise um ein einachsiges, selbstbalancierendes Personentransportmittel oder einen Rollstuhl handeln. Speziell kann das einachsige, selbstbalancierende Personentransportmittel ein Segway oder ein Hoverboard sein. Bei dem Rollstuhl kann es sich um einen einfachen elektrischen Rollstuhl handeln, einen Rollstuhl, der innerhalb eines Krankenhauses zum automatischen Transport genutzt wird oder um einen Rollstuhl mit einer Gehirn-Computer-Schnittstelle und Autopilot-Technologie.
  • Falls es sich bei dem Personenbeförderungsfahrzeug um ein einachsiges, selbstbalancierendes Personentransportmittel handelt, welches zwei Räder mit jeweils einem Spritzschutz aufweist, kann jede der Kameras an einem Spritzschutze befestigt sein. Ein derartiger Spritzschutz ist in der Regel sehr stabil und gegenüber dem Schwerpunkt des Personenbeförderungsfahrzeugs statisch. Es kann damit zuverlässig eine Rundumsicht gewonnen werden.
  • In einer speziellen Ausgestaltung sind die erste Kamera als Frontkamera, die zweite Kamera als Rückkamera und eine dritte Kamera bzw. eine vierte Kamera jeweils als Seitenkameras ausgebildet. Damit kann die Rundumsicht mit vier Kameras gewonnen werden, die jeweils beispielsweise mit (etwa) 90°z ueinander ausgerichtet sind. Somit lässt sich eine hoch qualitative Rundumsicht gewinnen.
  • Die oben gestellte Aufgabe kann erfindungsgemäß auch gelöst werden durch ein Verfahren zum Steuern eines Personenbeförderungsfahrzeugs durch
    • - Gewinnen eines ersten Bildsignals mit einer ersten Kamera,
    • - Detektieren eines Objekts und Bereitstellen eines entsprechenden Steuersignals für das Personenbeförderungsfahrzeug,
    • - Gewinnen mindestens eines zweiten Bildsignals mit mindestens einer zweiten Kamera,
    • - Erstellen einer Rundumsicht anhand der Bildsignale und
    • - Detektieren des Objekts in der Rundumsicht, wobei davon abhängig das Steuersignal erzeugt wird.
  • Dieses Verfahren kann mit entsprechenden funktionellen Merkmalen des obigen Kameraerfassungssystems bzw. des obigen Personenbeförderungsfahrzeugs weitergebildet werden. Es gelten dann auch für die so entstehenden Verfahren die entsprechenden Vorteile wie bei den korrespondierenden Vorrichtungen.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder von ihnen abweichen.
  • Die vorliegende Erfindung wird nun anhand der beigefügten Zeichnungen näher erläutert, in denen zeigen:
    • 1 eine Ansicht eines Segway mit einem Rundumsicht-Kamerasystem;
    • 2 ein Spritzschutz eines Segway mit mehreren Kameras;
    • 3 ein Softwaredesign für eine Auswerteeinrichtung eines Kameraerfassungssystems;
    • 4 ein Flussdiagramm zum Steuern eines Personenbeförderungsfahrzeugs mit einem Kameraerfassungssystem;
    • 5 eine Draufsicht auf eine reelle Situation mit Straßen- bzw. Bordsteinerkennung, Fußwegerkennung und Freiraumermittlung; und
    • 6 ein Teil einer Rundumsicht mit Seitenstraßenerkennung.
  • Die nachfolgend näher geschilderten Ausführungsbeispiele stellen bevorzugte Ausführungsformen der vorliegenden Erfindung dar.
  • 1 zeigt als Beispiel für ein Personenbeförderungsfahrzeug einen Segway 1. Der Segway 1 ist ein einachsiges Transportmittel, welches selbstbalancierend ist. Zwischen zwei Rädern 2 und 3, die auf der einen Achse angeordnet sind, befindet sich eine Standfläche 4. Auf der Standfläche 4 ist auch eine Haltestange 5 befestigt. Die beiden Räder 2 und 3 sind jeweils von einem Spritzschutz 6 bzw. 7 umgeben. Dadurch wird die Standfläche 4 gegen Schmutz und Spritzwasser geschützt, der/das von den Rädern 2 und 3 aufgewirbelt werden kann. Bei dem Spritzschutz 6 bzw. 7 handelt es sich in der Regel um ein Spritzgussteil aus Kunststoff, welches fest an der Standfläche befestigt ist.
  • Der Segway 1 ist mit einem Rundumsichtkamerasystem ausgestattet. Im vorliegenden Beispiel besitzt dieses Rundumsichtkamerasystem vier Einzelkameras: Eine Frontkamera 8, eine Rückkamera 9, eine erste Seitenkamera 10 und eine zweite Seitenkamera 11. Die Frontkamera 8 ist in Vorwärtsfahrtrichtung des Segway 1 nach vorne gerichtet und die Rückkamera 9 hierzu entgegengesetzt in Rückwärtsrichtung. Sowohl die Frontkamera 8 als auch die Rückkamera 9 sind fest mit dem Spritzschutz 7 verbunden. Sie sind dort an Positionen angeordnet, die entsprechende Ausrichtungen nach vorne und hinten erlauben. Darüber hinaus befindet sich an dem Spritzschutz 7 die zweite Seitenkamera 11, die im Wesentlichen in axialer Richtung der Achse des Segway 1 ausgerichtet ist.
  • An dem gegenüberliegenden Spritzschutz 6 für das Rad 2 befindet sich die erste Seitenkamera 10. Sie ist ebenfalls parallel zu der Achse des Segway 1 ausgerichtet. Ihre Ausrichtung ist entgegengesetzt zu der Ausrichtung der zweiten Seitenkamera 11.
  • In 2 ist der Spritzschutz 7 einschließlich der Kameras separat dargestellt. Dabei ist angedeutet, dass sich die Frontkamera 8 an dem Vorderende des Spritzschutzes 7 und die Rückkamera 9 an dem Rückende des Spritzschutzes 7 befinden kann. Die zweite Seitenkamera 11 befindet sich in der Mitte des Spritzschutzes 7 vorzugsweise an der höchsten Stelle. Bei Bedarf können natürlich auch andere Positionen der Kameras 8, 9, 11 gewählt werden. Ähnliches gilt für die Kamera 10 des Spritzschutzes 6.
  • In dem Beispiel der 1 und 2 besteht das Rundumsichtkamerasystem aus vier Kameras 8 bis 11. Die Anzahl der Kameras kann natürlich auch variieren. Mindestens sollten jedoch zwei Kameras vorhanden sein, um Abschattungen zu vermeiden. So können beispielsweise auch drei oder mehr als vier Kameras verwendet werden.
  • Das Kameraerfassungssystem des Segway 1 umfasst hier das Rundumsichtkamerasystem mit den einzelnen Kameras 8 bis 11 sowie eine Auswerteeinrichtung, die in die Bodenplatte bzw. Standfläche 4 integriert sein kann und die Bildsignale der einzelnen Kameras aufnimmt. Die Auswerteeinrichtung erzeugt aus diesen einzelnen Bildsignalen die entsprechende Rundumsicht und detektiert Objekte vorgegebenen Typs in der Rundumsicht. Außerdem stellt sie ein entsprechendes Steuersignal in Abhängigkeit von den detektierten Objekten für die Antriebe der Räder 2 und 3 des Segway 1 bereit. Dabei können für die einzelnen Antriebe jeweilige Teilsteuersignale erzeugt werden.
  • In 3 ist eine prinzipielle Softwarearchitektur zumindest eines Teils der Auswerteeinrichtung zum autonomen Fahren dargestellt. Ein Selbstfahrsteuermodul 12 (SDM) besitzt ein Streckenplanungsmodul 13 (PPM). Dieses wiederum enthält einen Freiraumszenariodeskriptor 14 (FSSD). Außerdem enthält das Streckenplanungsmodul 13 ein GPS-Modul 15 (GPS). Das Selbstfahrsteuermodul 12 besitzt ferner einen Freiraumdetektor 16 (FSD) und einen Fußwegdetektor 17 (PWD).
  • Das Selbstfahrsteuermodul 12 erhält von außen ein Eingangssignal 18 (IP). Dieses wird sowohl an den Freiraumdetektor 16 als auch an den Fußwegdetektor 17 in dem Selbstfahrsteuermodul 12 geliefert. Das Eingangssignal 18 kann Videobilder bzw. Bildsignale und/oder Karteninformationen enthalten. Insbesondere kann das Eingangssignal 18 eine Rundumsicht von der Umgebung des Personenbeförderungsfahrzeugs und speziell des Segway 1 beinhalten.
  • Der Freiraumdetektor 16 detektiert beispielweise Straßenränder und/oder Bordsteine. Gegebenenfalls liefert er entsprechende Signale auch an den Fußwegdetektor 17. Letzterer detektiert beispielsweise Fußgängerüberwege und/oder Fußwege. Die Ausgangssignale des Freiraumdetektors 16, des Fußwegdetektors 17 und des GPS-Navigators 15 werden dem Freiraumszenariodeskriptor 14 zugeführt, um entsprechend dem festgestellten Szenario in der Umgebung des Personenbeförderungsfahrzeugs ein oder mehrere Ausgangssignale 19 für eine oder mehrere Antriebe des Personenbeförderungsfahrzeugs zur Verfügung zu stellen. Das Ausgangssignal 19 (OP) kann Befehle zum Bremsen, Beschleunigen, Ändern der Richtung und dergleichen umfassen.
  • Ein entsprechendes Verfahren zum Ermitteln von freiem Raum bzw. frei befahrbarem Raum könnte entsprechend dem Flussdiagramm von 4 gestaltet sein. In einem Schritt S1 erfolgt hier der Start des Ablaufs. In einem anschließenden Schritt S2 kann beispielsweise das Selbstfahrsteuermodul 12 von 3 notwendige Ressourcen wie Speicherpuffer, Datenstrukturen und dergleichen vergeben und initialisieren. In dem anschließenden Schritt S3 kann die Funktionalität des Selbstfahrsteuermoduls 12 durch einen Satz von Konfigurationsparametern definiert werden. Dementsprechend sind beim Start des Prozesses die Konfigurationsparameter zu initialisieren. Die Schritte S2 und S3 können gegebenenfalls auch vertauscht sein.
  • In einem weiteren Schritt S4 erfolgt eine Analyse des Freiraums auf der Straße bzw. dem befahrbaren Untergrund. Das Selbstfahrsteuermodul 12 kann hierzu beispielsweise einen gewünschten Straßenbereich bestimmen und dabei aus dem Eingangssignal bzw. den Eingangssignalen 18 Grenzen des Straßenbereichs (z.B. Straßenränder oder Bordsteine) auffinden. Ebenso kann das Selbstfahrsteuermodul 12 gemäß Schritt S5 Fußgängerüberwege und Fußwege aus dem Eingangssignal 18 (z.B. Rundumsicht) bestimmen. Mit Hilfe dieser gewonnen Informationen und gegebenenfalls der Information eines GPS-Moduls 15 (z.B. GPS-Tracker), welches ständig Richtungsaktualisierungen für eine Bewegung von einem Startpunkt zu einem Endpunkt liefern kann, wird beispielsweise der Freiraumszenariodeskriptor 14 gemäß Schritt S6 eine Wegstrecke planen. Dabei kann der Freiraumszenariodeskriptor 14 die Daten zeitlich analysieren und ein Freiraumszenario konstruieren. Dieses Freiraumszenario stellt in der aktuellen Situation aus der Sicht des Personenbeförderungsfahrzeugs den momentan befahrbaren Bereich dar. In diesem Freiraumszenario können beispielsweise sichere Sektoren ermittelt werden, in denen der Segway bzw. das Personenbeförderungsfahrzeug fahren kann. Entsprechende Steuersignale lassen sich dann an das Motorsteuergerät des Fahrzeugs geben. In Schritt S7 endet die Freiraumanalyse mit der Rückmeldung eines Steuersignals bzw. mehrerer Steuersignale an das Antriebssystem.
  • Im Zusammenhang mit 5 wird nun die Wirkungsweise des Selbstfahrsteuermoduls 12 bzw. des soeben geschilderten Verfahrens näher erläutert. Mit dem Freiraumdetektor soll der befahrbare Raum bzw. der befahrbare Untergrund für das Personenbeförderungsfahrzeug ermittelt werden. Ziel ist es also z.B. in der Rundumsicht einen befahrbaren Freiraum zu finden. Dazu kann im Detail in folgenden Schritten vorgegangen werden:
    1. a) Die in der Rundumsicht erfasste Szene wird in Bereich unterschiedlicher Intensitäten und Texturen klassiert.
    2. b) Vor dem Segway bzw. dem Personenbeförderungsfahrzeug wird ein Bereich ermittelt, welcher mit höchster Wahrscheinlichkeit eine Straßenoberfläche ist.
    3. c) Es werden andere Bereiche verbunden, die auf der Basis von Intensitäts- und Texturbeziehungen als Untergrundflächen klassiert sind.
    4. d) Es werden Grenz- und Bordsteinpixelpositionen des Straßenbereichs ermittelt.
    5. e) Auf der Basis der Straßenranddetektion wird der Freiraumdetektor den freien Raum z.B. in Weltkoordinaten analysieren und den freien Raum in Metern vor der Kamera ausdrücken. Schließlich wird das konsolidierte Freiraumszenario dem Antriebssystem bereitgestellt.
  • In 5 ist ein solches Freiraumszenario in der Vogelperspektive dargestellt. Ein Segwayfahrer 20 befindet sich auf einer abbiegenden Straße 21. Der Freiraumdetektor des Kameraerfassungssystems, welches eine Rundumsicht bereitstellen kann, hat Straßenränder bzw. Bordsteine 22 erkannt. Diese stellen Objekte dar, die den befahrbaren Raum begrenzen. Außerdem werden mit der Auswerteeinrichtung weitere Objekte wie parkende oder fahrende Fahrzeuge 23 erfasst. Auch sie stellen eine Begrenzung des befahrbaren Bereichs, d.h. des Freiraumszenarios dar. Auch andere Objekte in der Rundumsicht, wie beispielsweise ein Container 24, werden erfasst, um den befahrbaren Bereich exakt zu definieren. Sind die Grenzen des befahrbaren Bereichs bekannt, so teilt die Auswerteeinrichtung bzw. der Freiraumdetektor den ermittelten befahrbaren Raum in Sektoren 25 ein. Diese Sektoren können für die weitere Analyse genutzt werden.
  • Im vorliegenden Beispiel besitzt das Kameraerfassungssystem bzw. das Selbstfahrsteuermodul auch einen Fußwegdetektor, um in der Rundumsicht Fußwege 29 oder Fußgängerübergänge zu erkennen. Hierzu können folgende Schritte notwendig sein.
    1. a) Eine Analyse der Bereiche jenseits der Bordsteine und Straßenränder 22.
    2. b) Eine Detektion homogener Bereiche parallel zu den Bordsteinen, die auf potentielle Fußwege 29 hinweisen.
    3. c) Untersuchung von Bordsteinen, die mit diesen homogenen Bereichen assoziiert sind, hinsichtlich ihrer Parallelität zu Bordsteinen, die mit dem Straßenbereich assoziiert sind.
    4. d) Ein Fußgängerübergang kann bestimmt werden, wenn parallele weiße Streifen auf einer Fahrbahn ermittelt werden.
    5. e) Bei hohem Verkehrsaufkommen wird das Personenbeförderungsfahrzeug bzw. der Segway automatisch auf einen sicheren Fußweg gefahren und die Fahrgeschwindigkeit begrenzt.
  • Schließlich kommt in dem vorliegenden Beispiel der Freiraumszenariodeskriptor 14 zum Einsatz. Dessen Ziel ist es auf der Basis der Signale des Freiraumdetektors 16, des GPS-Moduls 15 und des Fußwegdetektors 17 das Freiraumszenario genau zu ermitteln. Damit kann ein Steuersignal für einen sicheren Fahrpfad bzw. eine sichere Route erstellt werden. Hierzu sind folgende Schritte notwendig bzw. optional:
    1. a) Eine zeitliche Analyse des freien Raums in jedem Sektor, um die jeweiligen Ereignisse zu beschreiben. Die fortlaufende Abnahme des freien Raums in einem Sektor wird eine Annäherung an ein Hindernis andeuten. Ein solcher Sektor 26 mit dem Container 24 als Hindernis ist in 5 eingezeichnet. Die Auswerteeinheit wird ferner Sektoren 27 kennzeichnen, in denen sich (zumindest bis zu einer vorgegebenen Mindestgrenze) keine Hindernisse befinden und die eventuell bis zum Rand 22 der Straße 21 befahrbar sind. Gegebenenfalls soll der Segway in den entsprechenden Sektor wechseln, der einen größeren Freiraum andeutet.
    2. b) Ein Wegstreckenplaner kann fortlaufend von dem GPS-Modul Signale erhalten, um zwischen verschiedenen Orten autonome Bewegungen zu ermöglichen. In 5 ist eine GPS-Richtung 28 eingezeichnet, der der Segwayfahrer 20 laut seinem Routenplaner bzw. Wegstreckenplaner folgen soll. Entsprechend dieser GPS-Richtung 28 werden dann die möglichen freien Sektoren zur Verfügung gestellt bzw. einer davon ausgewählt für die Fortbewegung des Segway.
    3. c) Eine Echtzeitsteuerung bezüglich Beschleunigungen, Bremsverzögerungen und Richtungswechsel wird für das Segway-Steuergerät genutzt.
    4. d) In Kollisionsszenarien kann der Segway aus Sicherheitsgründen auf der Basis einer Änderungsgeschwindigkeit der Freiraumsektoren intelligent die Route wechseln.
  • An Stelle eines GPS-Moduls kann beispielsweise auch ein VSLAM-Modul (Visual Simultaneously Localization and Mapping) verwendet werden. Darüber hinaus kann eine Weiterbildung darin bestehen, dass das Kameraerfassungssystem einschließlich der Auswerteeinrichtung einen Trainingsmodus anbietet, der beispielsweise die ersten paar Male benutzt wird, wenn der Fahrer manuell beispielsweise von zu Hause ins Büro, auf den Marktplatz oder zum Spielplatz fährt. Das System wird mit den entsprechenden Informationen lernen und den Pfad gegebenenfalls mit Abweichungen simulieren.
  • Eine Weiterbildung des Systems bzw. des Verfahrens kann darin bestehen, dass zusätzlich Seitenstraßen erfasst werden, um das Steuersignal für das Personenbeförderungsfahrzeug zu gewinnen. Eine Straße 30 einschließlich Seitenstraße 31 ist in dem Bild einer Frontkamera gemäß 6 erkennbar. Um die Seitenstraße 31 erkennen zu können, werden die horizontalen Straßenränder 32 auf der linken und rechten Seite der Straße 30 ermittelt. Anschließend wird nach ungewöhnlichen Ausbuchtungen am linken und rechten Rand der Straße gesucht, um Seitenstraßen 31 zu detektieren. Eine Unterbrechung des gradlinigen Verlaufs des Straßenrands, wie in 6, deutet auf eine Nebenstraße hin.
  • Die Erfassung von Seitenstraßen kann auch für Trainingszwecke benutzt werden. So kann der Algorithmus beispielsweise die Anzahl an linken und rechten Seitenstraßen detektieren, bevor eine tatsächliche Abzweigung genommen wird. Dies kann auch als Referenz für autonomes Fahren dienen.
  • Das Kameraerfassungssystem mit der Rundumsicht kann auch dazu genutzt werden, Kollisionen zu vermeiden. Dies kann nicht nur dadurch erfolgen, dass freie Sektoren für das Fahren ermittelt werden, sondern auch dadurch, dass Trajektorien von sich bewegenden Hindernissen auf das Personenbeförderungsfahrzeug hin detektiert werden. Daraus wird ein entsprechendes Steuersignal generiert, um eine etwaige Kollision zu vermeiden.
  • Derartige Kameraerfassungssysteme können nicht nur für Segways, Hoverboards und dergleichen genutzt werden, sondern auch für autonom gesteuerte Rollstühle, aber auch für andere Personenbeförderungsfahrzeuge.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 20150027987 [0006]
    • WO 15192610 [0007]

Claims (12)

  1. Kameraerfassungssystem zum Steuern eines Personenbeförderungsfahrzeugs (1) mit - einer ersten Kamera (8) zum Gewinnen eines ersten Bildsignals und - einer Auswerteeinrichtung (12) zum Detektieren eines Objekts (22, 23, 24) und zum Bereitstellen eines entsprechenden Steuersignals (19) für das Personenbeförderungsfahrzeug (1), dadurch gekennzeichnet, dass - mindestens eine zweite Kamera (9, 10, 11) zum Gewinnen mindestens eines zweiten Bildsignals in dem Kameraerfassungssystem enthalten ist, - die erste Kamera (8) und die mindestens eine zweite Kamera (9, 10, 11) sowie die Auswerteeinrichtung (12) zusammen dazu ausgebildet sind, anhand der Bildsignale eine Rundumsicht zu erstellen, und - die Auswerteeinrichtung (12) außerdem dazu ausgebildet ist, das Objekt (22, 23, 24) in der Rundumsicht zu detektieren und davon abhängig das Steuersignal (19) zu erzeugen.
  2. Kameraerfassungssystem nach Anspruch 1, dadurch gekennzeichnet, dass mit der Auswerteeinrichtung (12) ein Bordstein oder eine Straßenkante (22) als das Objekt (22, 23, 24) detektierbar ist.
  3. Kameraerfassungssystem nach Anspruch 2, dadurch gekennzeichnet, dass mit der Auswerteeinrichtung (12) anhand eines oder mehrerer detektierter Bordsteine oder Straßenkanten (22) in der Rundumsicht eine von einer Straße (30) abzweigende Seitenstraße (31) erkennbar ist.
  4. Kameraerfassungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass mit der Auswerteeinrichtung (12) ein Fußgängerüberweg oder ein Fußweg (29) als das Objekt (22, 23, 24) detektierbar ist.
  5. Kameraerfassungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass es ein GPS-Modul (15) aufweist, dessen Signal die Auswerteeinrichtung (12) zum Erzeugen des Steuersignals (19) nutzt.
  6. Kameraerfassungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass die Auswerteeinrichtung (12) eine Fahrstreckenplanungseinheit aufweist, mit der eine Route zu einem vorgegebenen Ziel ermittelbar ist, und das Steuersignal (19) entsprechend der Route erzeugt.
  7. Kameraerfassungssystem nach einem der vorhergehenden Ansprüche dadurch gekennzeichnet, dass mit der Auswerteeinrichtung (12) in der Rundumsicht ein befahrbarer Untergrund in Sektoren (25, 26, 27) einteilbar, jeder Sektor (25, 26, 27) für das Erzeugen des Steuersignals (19) nach einem oder mehreren Kriterien klassierbar und das Steuersignal (19) in Abhängigkeit von der Klassierung erzeugbar ist.
  8. Personenbeförderungsfahrzeug (1) mit einem Kameraerfassungssystem nach einem der vorhergehenden Ansprüche.
  9. Personenbeförderungsfahrzeug (1) nach Anspruch 8, das als einachsiges, selbstbalancierendes Personentransportmittel oder als Rollstuhl realisiert ist.
  10. Personenbeförderungsfahrzeug (1) nach Anspruch 8, das als das einachsige, selbstbalancierende Personentransportmittel realisiert ist, welches zwei Räder (2, 3) mit jeweils einem Spritzschutz (6, 7) aufweist, wobei jede der Kameras (8 bis 11) an einem der Spritzschutze (6, 7) befestigt ist.
  11. Personenbeförderungsfahrzeug (1) nach Anspruch 8, wobei die erste Kamera (8) eine Frontkamera, die zweite Kamera (9) eine Rückkamera und eine dritte Kamera (10) sowie eine vierte Kamera (11) jeweils eine Seitenkamera sind.
  12. Verfahren zum Steuern eines Personenbeförderungsfahrzeugs (1) durch - Gewinnen eines ersten Bildsignals mit einer ersten Kamera (8) und - Detektieren eines Objekts (22, 23, 24) und Bereitstellen eines entsprechenden Steuersignals (19) für das Personenbeförderungsfahrzeug (1), gekennzeichnet durch - Gewinnen mindestens eines zweiten Bildsignals mit mindestens einer zweiten Kamera (9, 10, 11), - Erstellen einer Rundumsicht anhand der Bildsignale und - Detektieren des Objekts (22, 23, 24) in der Rundumsicht, wobei davon abhängig das Steuersignal (19) erzeugt wird.
DE102016119729.7A 2016-10-17 2016-10-17 Steuern eines Personenbeförderungsfahrzeugs mit Rundumsichtkamerasystem Withdrawn DE102016119729A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102016119729.7A DE102016119729A1 (de) 2016-10-17 2016-10-17 Steuern eines Personenbeförderungsfahrzeugs mit Rundumsichtkamerasystem
PCT/EP2017/069922 WO2018072908A1 (en) 2016-10-17 2017-08-07 Controlling a vehicle for human transport with a surround view camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016119729.7A DE102016119729A1 (de) 2016-10-17 2016-10-17 Steuern eines Personenbeförderungsfahrzeugs mit Rundumsichtkamerasystem

Publications (1)

Publication Number Publication Date
DE102016119729A1 true DE102016119729A1 (de) 2018-04-19

Family

ID=59702670

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016119729.7A Withdrawn DE102016119729A1 (de) 2016-10-17 2016-10-17 Steuern eines Personenbeförderungsfahrzeugs mit Rundumsichtkamerasystem

Country Status (2)

Country Link
DE (1) DE102016119729A1 (de)
WO (1) WO2018072908A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3663177A1 (de) * 2018-12-07 2020-06-10 Ninebot (Beijing) Tech Co., Ltd. Roller
EP3663176A1 (de) * 2018-12-07 2020-06-10 Ninebot (Beijing) Tech. Co., Ltd. Roller

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110001840B (zh) * 2019-03-12 2021-01-01 浙江工业大学 一种基于视觉传感器的多种路况下的两轮自平衡车运动控制方法
CN110203312B (zh) * 2019-06-14 2021-06-29 灵动科技(北京)有限公司 可进行移动的装置
CN114663397B (zh) * 2022-03-22 2023-05-23 小米汽车科技有限公司 可行驶区域的检测方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2540596A2 (de) * 2011-06-29 2013-01-02 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum teilautomatischen Fahren eines Kraftfahrzeugs
DE102011116169A1 (de) * 2011-10-14 2013-04-18 Continental Teves Ag & Co. Ohg Vorrichtung zur Unterstützung eines Fahrers beim Fahren eines Fahrzeugs oder zum autonomen Fahren eines Fahrzeugs
DE102011087894A1 (de) * 2011-12-07 2013-06-13 Robert Bosch Gmbh Verfahren und Fahrzeugassistenzsystem zur aktiven Warnung und/oder zur Navigationshilfe zur Vermeidung einer Kollision eines Fahrzeugkarosserieteils und/oder eines Fahrzeugrades mit einem Objekt
KR20150027987A (ko) 2013-09-05 2015-03-13 한국전자통신연구원 전동 휠체어의 자율주행 제어 장치 및 방법
FR3017207A1 (fr) * 2014-01-31 2015-08-07 Groupe Gexpertise Vehicule d'acquisition de donnees georeferencees, dispositif, procede et programme d'ordinateur correspondant
WO2015192610A1 (zh) 2014-06-17 2015-12-23 华南理工大学 一种基于脑机接口与自动驾驶技术的智能轮椅控制方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9302678B2 (en) * 2006-12-29 2016-04-05 Robotic Research, Llc Robotic driving system
JP4970156B2 (ja) * 2007-06-12 2012-07-04 富士重工業株式会社 車両の運転支援装置
JP6194604B2 (ja) * 2013-03-15 2017-09-13 株式会社リコー 認識装置、車両及びコンピュータが実行可能なプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2540596A2 (de) * 2011-06-29 2013-01-02 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum teilautomatischen Fahren eines Kraftfahrzeugs
DE102011116169A1 (de) * 2011-10-14 2013-04-18 Continental Teves Ag & Co. Ohg Vorrichtung zur Unterstützung eines Fahrers beim Fahren eines Fahrzeugs oder zum autonomen Fahren eines Fahrzeugs
DE102011087894A1 (de) * 2011-12-07 2013-06-13 Robert Bosch Gmbh Verfahren und Fahrzeugassistenzsystem zur aktiven Warnung und/oder zur Navigationshilfe zur Vermeidung einer Kollision eines Fahrzeugkarosserieteils und/oder eines Fahrzeugrades mit einem Objekt
KR20150027987A (ko) 2013-09-05 2015-03-13 한국전자통신연구원 전동 휠체어의 자율주행 제어 장치 및 방법
FR3017207A1 (fr) * 2014-01-31 2015-08-07 Groupe Gexpertise Vehicule d'acquisition de donnees georeferencees, dispositif, procede et programme d'ordinateur correspondant
WO2015192610A1 (zh) 2014-06-17 2015-12-23 华南理工大学 一种基于脑机接口与自动驾驶技术的智能轮椅控制方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3663177A1 (de) * 2018-12-07 2020-06-10 Ninebot (Beijing) Tech Co., Ltd. Roller
EP3663176A1 (de) * 2018-12-07 2020-06-10 Ninebot (Beijing) Tech. Co., Ltd. Roller
US11150661B2 (en) 2018-12-07 2021-10-19 Ninebot (Beijing) Tech Co., Ltd. Scooter having a contracting steering handle for unmanned operation
US11603158B2 (en) 2018-12-07 2023-03-14 Ninebot (Beijing) Tech Co., Ltd. Scooter

Also Published As

Publication number Publication date
WO2018072908A1 (en) 2018-04-26

Similar Documents

Publication Publication Date Title
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
EP2769373B1 (de) Übernahme von daten aus bilddatenbasierenden kartendiensten in ein assistenzsystem
DE102014008578B4 (de) Verfahren zur Ermittlung von Positionsdaten zur Nutzung beim Betrieb eines Fahrzeugsystems eines Kraftfahrzeugs und Positionsdatenermittlungs- und-verteilssystem
DE102017206847B4 (de) Verfahren zum automatischen Erstellen und Aktualisieren eines Datensatzes für ein autonomes Fahrzeug
DE112020004931T5 (de) Systeme und verfahren zur bestimmung der verkehrssicherheit
DE112019004832T5 (de) Betrieb eines Fahrzeugs unter Verwendung von Bewegungsplanung mit maschinellem Lernen
DE102017116212A1 (de) STRAßENANSATZERKENNUNG MIT RÜCKFAHRKAMERA
DE102016119729A1 (de) Steuern eines Personenbeförderungsfahrzeugs mit Rundumsichtkamerasystem
EP3627386A1 (de) Verfahren und vorrichtung zum bereitstellen eines umfeldabbildes eines umfeldes einer mobilen einrichtung und kraftfahrzeug mit einer solchen vorrichtung
WO2015000882A1 (de) Assistenzsystem und assistenzverfahren zur unterstützung bei der steuerung eines kraftfahrzeugs
DE112019004633T5 (de) Systeme und verfahren zum verbessern des fahrzeugbetriebs unter verwendung beweglicher sensoren
DE102018104270A1 (de) Verfahren zum Vorhersagen des Verhaltens mindestens eines Fußgängers
DE112021006402T5 (de) Schätzung von Automatikbelichtungswerten einer Kamera durch Priorisieren eines Objekts von Interesse auf Basis von kontextuellen Eingaben aus 3D-Karten
DE102011085012A1 (de) Spuraufgelöste Warnstrategie
DE102017221839A1 (de) Verfahren zur Positionsbestimmung für ein Fahrzeug, Steuergerät und Fahrzeug
EP3008636B1 (de) Verfahren und system zum auffinden einer oder mehrerer personen durch ein fahrzeug
DE102022128968A1 (de) Systeme und verfahren zum sammeln von bildern zur fahrzeugnavigation
EP4229549A1 (de) System und verfahren zum annotieren von automobilradardaten
DE102020005763A1 (de) Verfahren zur Steuerung eines Fahrzeugs
DE102018121274B4 (de) Verfahren zum Visualisieren einer Fahrabsicht, Computerprogrammprodukt und Visualisierungssystem
DE102018122922A1 (de) Verfahren zum Fahren eines Fahrzeugs in einem Niedriggeschwindigkeitsmodus
DE102019213403A1 (de) Verfahren zur sensorbasierten Lokalisation eines Egofahrzeuges, Egofahrzeug und ein Computerprogramm
EP3671125B1 (de) Positionsbestimmungssystem und verfahren zum betreiben eines positionsbestimmungssystems für eine mobile einheit
EP3136367B1 (de) Fahrzeugkameravorrichtung sowie verfahren zur erfassung eines vorausliegenden umgebungsbereichs eines kraftfahrzeugs
DE102020102278A1 (de) Verfahren zur Navigationsunterstützung in einem Kraftfahrzeug auf Grundlage von Informationen aus mehreren erfassenden Kraftfahrzeugen

Legal Events

Date Code Title Description
R163 Identified publications notified
R005 Application deemed withdrawn due to failure to request examination