Technologie

#AutonomousEverything

Vereinte Sensor-Power für autonome Fahrzeuge

Tags: NullUnfälle, SeeThinkAct, Sicherheit

Fahrerassistenzsysteme müssen auch unübersichtliche Situationen sicher beherrschen. Damit das bei allen Licht- und Wetterverhältnissen zuverlässig klappt, sind die Informationen aus Kameras, Lidar- und Radarsensoren intelligent zu verknüpfen.
Kathrin Wildemann, 15. Januar 2019
author_image
Kathrin Wildemann gehört seit 2016 zum festen Autorenteam bei ZF. In On- ebenso wie in Offline-Beiträgen beschäftigt sie sich bevorzugt mit Elektromobilität und anderen Nachhaltigkeitsthemen.
Eine Kamera, die auf jedem Bild eine leere Stelle erzeugt, scheint eine Fehlkonstruktion zu sein. Vergleicht man das menschliche Auge mit einer Kamera, dann passiert genau das beim Sehen: An der Stelle, an der aus der Netzhaut der Sehnerv austritt, sitzen keine Rezeptoren, die Lichtreize aufnehmen, aus denen im Gehirn dann ein Bild entsteht. Diese Stelle im Auge ist der sogenannte blinde Fleck. Er stört jedoch nicht, da die Informationen der umliegenden Rezeptoren auf der Netzhaut und vor allem der Seheindruck des anderen Auges die fehlenden Bildpunkte ausgleichen. Gleichzeitig sorgen die beiden nebeneinanderliegenden Augen dafür, dass wir räumliche Tiefe wahrnehmen – die Voraussetzung, um Entfernungen abzuschätzen. Technisch ausgedrückt: Die Daten zweier Sensoren fusionieren zu einem vollständigeren Bild mit mehr Information.

Sensorfusion: die Voraussetzung fürs autonome Fahren

Sensorfusion: die Voraussetzung fürs autonome Fahren

Genau dieses Prinzip nutzen auch die Entwickler automatisierter Fahrfunktionen. Damit ein autonom fahrendes Auto jede Verkehrssituation auch bei ungünstigen Licht- und Witterungsbedingungen zweifelsfrei wahrnehmen kann, braucht es ganz unterschiedliche Sensoren. Kameras, Radar- und Lidarsensoren haben jeweils ihre speziellen Vorzüge. Werden die intelligent gebündelt, gestatten sie einen umfassenden und detaillierten 360-Grad-Blick. „Als Systemarchitekten des autonomen Fahrens haben wir ein Sensor-Set entwickelt, das Autos mit allen notwendigen Sinnen ausstattet, um ihre Umgebung digital wahrnehmen zu können“, sagt Torsten Gollewski, Leiter der ZF-Vorentwicklung und Geschäftsführer der Zukunft Ventures GmbH.
Sensor-Architektur von ZF im Einsatz: Die zusammengeführten Informationen aus Radar, Lidar und unterschiedlichsten Kameras lassen Autos schon heute selbst komplexe Verkehrssituationen erkennen und bewältigen.

Kameras: unterschiedliche Bildwinkel für jede Fahrsituation

Kameras: unterschiedliche Bildwinkel für jede Fahrsituation

Kameras sind für die Objekterkennung unverzichtbar. Sie liefern dem Fahrzeug die nötige Information, um den am Fahrbahnrand wahrgenommenen Gegenstand mittels künstlicher Intelligenz als Fußgänger oder Mülleimer zu identifizieren. Darüber hinaus liegt die große Stärke von Kameras in der präzisen Messung von den Winkeln. So lässt sich beispielsweise frühzeitig erkennen, ob ein vorausfahrendes Fahrzeug abbiegen wird. Verlangt der Stadtverkehr einen breiten Bildwinkel, um Fußgänger und Radfahrer zu erfassen, sind auf der Autobahn eine lange Reichweite von bis zu 300 Meter und ein schmaler Bildwinkel gefragt. Das breit gefächerte Angebot an unterschiedlichen Kamerasystemen von ZF ist wichtig für die adaptive Geschwindigkeitsregelung, fürs automatische Notbremssystem oder für den Spurhalteassistenten.

Innenraumkameras für maximalen Insassenschutz

Innenraumkameras für maximalen Insassenschutz

Doch Kameras beobachten nicht nur das Umfeld des Fahrzeugs. Sie behalten auch Fahrer und Passagiere im Innenraum im Blick. So erkennen sie nicht nur, ob der Fahrer abgelenkt oder müde ist, sondern auch, welche Sitzposition die Insassen einnehmen. Dieses Wissen schafft ein großes Sicherheitsplus, denn im Falle eines Zusammenstoßes lässt sich die Funktion von Gurt und Airbag entsprechend anpassen.
Die drei Objektive der TriCam von ZF haben unterschiedliche Bildwinkel und liefern wichtige Informationen aus unterschiedlichen Entfernungen vor und neben dem Fahrzeug.

Radarsensoren: Echosystem bei schlechter Sicht

Radarsensoren: Echosystem bei schlechter Sicht

Im Gegensatz zu Kameras, die Bildinformationen „passiv“ aufnehmen, handelt es sich bei Radar um eine aktive Technologie: Sensoren senden elektromagnetische Wellen aus und empfangen das „Echo“, das von umliegenden Objekten zurückgeworfen wird. So können Radarsensoren insbesondere die Entfernung sowie die relative Geschwindigkeit dieser Objekte mit hoher Genauigkeit bestimmen. Damit eignen sie sich zum Abstand halten genauso wie zur Kollisionswarnung oder für Notbremsassistenten. Ein weiterer entscheidender Vorteil von Radarsensoren gegenüber optischen Systemen: Da sie Radiowellen verwenden, funktionieren sie unabhängig von Wetter-, Licht- und Sichtverhältnissen. Das macht sie zu einer wichtigen Komponente im Sensor-Set. Wie bei seinen Kamerasystemen führt ZF auch bei Radar ein umfassendes Sortiment von Sensoren mit verschiedenen Reichweiten und Öffnungswinkeln (Strahlbreite). Das bildgebende Gen21-Full-Range-Radar etwa eignet sich dank seiner hohen Auflösung schon heute fürs hochautomatisierte und autonome Fahren.

Lidar: Laserscharfer Rundumblick

Lidar: Laserscharfer Rundumblick

Lidarsensoren nutzen ebenfalls das Echo-Prinzip, verwenden jedoch Laserpulse anstatt Radiowellen. Abstände und Relativgeschwindigkeiten erfassen sie daher ähnlich gut wie ein Radar, erkennen aber Objekte und Winkel viel genauer. Deshalb überblicken sie auch komplexe Verkehrssituationen bei Dunkelheit sehr gut. Anders als bei Kameras und Radarsensoren spielt der Bildwinkel hier keine Rolle, da Lidarsensoren das 360-Grad-Umfeld des Fahrzeugs erfassen. Die hochauflösenden 3D-Solid-State-Lidar-Sensoren von ZF können auch Fußgänger und kleinere Objekte dreidimensional abbilden. Das ist für die Automatisierung ab Level 4 sehr wichtig. Die Solid-State-Technologie ist durch den Verzicht auf bewegliche Komponenten im Fahrzeug wesentlich robuster als bisherige Lösungen. „Es freut mich, dass wir den Solid-State-Lidar zusammen mit unserem Partner Ibeo auf die Straße bringen. Auch haben wir auf der Consumer Electronics Show das neue Full-Range-Radar gezeigt. Das ist eine hochauflösende Radartechnologie, die die Grenzen früherer Generationen hinter sich lässt“, sagt Martin Randler. Er ist Director Sensor Technologies and Perception System.

Sound.AI: Autos erkennen akustische Signale

Sound.AI: Autos erkennen akustische Signale

Wie schon der Claim „see, think, act“ andeutet, lässt ZF mit seinen technischen Lösungen Fahrzeuge sehen. Zusätzlich bringt der Konzern dem Auto mit der Anwendung „Sound.AI“ aber auch das Hören bei. Das System erkennt unter anderem sich nähernde Einsatzfahrzeuge von Polizei, Feuerwehr oder Rettungsdienst an derem akustischen Sondersignal. Anschließend schafft das mit Sound.AI ausgestattete Fahrzeug Platz, indem es selbst an die Seite fährt.
Mit der Sensorlösung Sound.AI kann das Fahrzeug sich nähernde Fahrzeuge von Feuerwehr, Polizei und Rettungsdienst im Notfalleinsatz akustisch orten und für sie Platz machen.

Gemeinsam unschlagbar dank künstlicher Intelligenz

Gemeinsam unschlagbar dank künstlicher Intelligenz

Kombiniert zu einem Sensor-Set, verhindern die genannten technischen Lösungen auch in unübersichtlichen Situationen das Entstehen eines blinden Flecks in der Wahrnehmung des Fahrzeugumfelds. Um die Sensorinformationen von Lidar, Radar, Kameras und Sound.AI zu einem eindeutigen Bild zusammenzufügen, ist natürlich noch ein „Gehirn“ nötig. Die Lösung von ZF heißt hier „ProAI RoboThink“. Das ist derzeit der weltweit stärkste Zentralrechner im Automotive-Bereich. Mit diesem künstlichen Gehirn im Einsatz kann der Fahrer schon bald entspannt seine Augen schließen oder etwas anderes tun und das Fahren seinem autonomen Auto überlassen. Das ist keine Zukunftsmusik, sagt Ingenieur Gollewski: „Unsere geballte Sensor-Power kann schon heute dazu beitragen, zukünftige Anforderungen durch Technologien aus einer Hand abzudecken.“