Optische Lasersysteme für autonomes Fahren

Der OSRAM Podcast: Episode #4 mit Gunnar Moos


Das Photonstudio der OSRAM Podcast. Hallo und herzlich willkommen im Photonstudio dem OSRAM Podcast. Mein Name ist Dieter Schierer und ich bin OSRAM Mitarbeiter im Bereich digitale Kommunikation. Ich freue mich auf eine neue Folge zum Thema „Faszination Licht“. Heute geht es ums autonome Fahren und die Schlüsselrolle, die Licht dabei spielt. Autonom fahrende Autos kennen wir aus zahlreichen Science-Fiction Filmen. Da funktioniert es immer sehr einfach. Der Darsteller steigt in ein futuristisches Fahrzeug, macht es sich bequem, nennt den Bordcomputer das Ziel und los geht es. Und tatsächlich nimmt diese Zukunftsvision bereits heute konkrete Gestalt an. Doch bis wir uns überall in unseren Fahrzeugen zurücklehnen und Zeitung lesen können, wird noch Zeit vergehen. Auf dem Weg zu diesem Ziel spielen optische Lasersysteme, welche die Umwelt erfassen, eine zentrale Rolle.

Ich möchte heute erfahren, welche technischen Herausforderungen es noch zu meistern gibt und welchen Beitrag OSRAM dazu leistet, dass die Autos immer besser sehen können. Dazu habe ich heute Gunnar Moos in das Photonstudio eingeladen. Er leitet den Bereich Autonomes Fahren bei OSRAMs Geschäftseinheit Automotive. Mit seinen Teams in München und Berlin arbeitet er an der Entwicklung von hochauflösenden LiDAR Modulen.

Dieter: Gunnar, ich freue mich, dass du heute bei uns im Photonstudio bist!

Gunnar: Ja, gerne und herzlichen Dank, dass ich hier die Gelegenheit habe, etwas über unsere Arbeit zu erzählen. Ich freue mich, dass ich dabei bin.

Dieter: Danke, danke! Gleich die Überleitung zu meiner ersten Frage. Du bist bei OSRAM in der Geschäftseinheit Automotive und leitest den Bereich autonomes Fahren. Was hat es nun mit OSRAM zu tun, wo uns jeder noch als Lichtexperten kennt? Wie passt autonomes Fahren zu OSRAM?

Gunnar: Das ist genau der Punkt, es geht zwar nicht um Lampen, aber es geht um Licht. Es geht darum, was wir beim autonomen Fahren mit Licht bewirken können. Das kann zum einen sein: Was können wir für Fahrfunktionen machen, das geht in Richtung Sensorik. Oder was können wir im Bereich Komfort machen? Der Kernpunkt ist eigentlich, Licht kann mehr als beleuchten. Darum kümmern wir uns im Bereich autonomes Fahren für genau diese Anwendung.

Dieter: Kannst du uns ein bisschen mehr verraten. Wie sieht denn dein Arbeitsalltag aus?

Ich nehme zwar noch zwei Beispiele zu Themen, mit denen wir uns beschäftigen. Das eine ist das Thema LiDAR-Sensorik. Da geht es darum, dass man mit diesem Sensor die Umwelt von einem autonomen Fahrzeug abtastet. Das heißt, ein unsichtbarer, infraroter Laser rastert die Umgebung ab und kann so Objekte in der Umgebung erkennen. Es wird ein Impuls ausgesandt und dann wird der von einem anderen Auto, Fußgänger oder Hund reflektiert und kann wieder von dem LiDAR-Sensor empfangen werden. Dann kann man aus der Zeit, die es dauert bis der Laserpuls wieder da ist, errechnen wie weit das Objekt weg ist. Und wenn man das Punkt für Punkt macht, kann man ein komplettes Umfeldbild von einem Fahrzeug zusammensetzen. Also so etwas wie eine 3D-Karte des Fahrzeugsumfeldes. Und wenn ich genau weiß, wie es um das Auto aussieht, kann natürlich auch ein Fahrerassistenzsystem oder ein Autonomous-Driving-System Schlussfolgerungen ziehen und sagen links abbiegen geht, oder nein geht nicht, fahre noch 10 Meter geradeaus und dann kannst du links abbiegen. So einen LiDAR-Sensor entwickeln wir in unserem Team in Berlin und in Garching. Ein anderes Beispiel ist das Innere des Fahrzeugs. Die Fahrerkabine wird immer mehr zum Wohnzimmer, Arbeitszimmer oder auch Kinderzimmer. Es wird zum Beispiel daran gearbeitet, wie man die Scheiben in einem Fahrzeug verwenden kann, um darauf Videos anzuschauen oder E-Mails bearbeiten zu können. Sozusagen als großer Fernseher oder Monitor. Und da kommt jetzt wieder das Licht. Das heißt, dass man mit LEDs oder mit Lasern diese Bilder auf Scheiben projizieren kann. Das sind Themen an denen nicht nur OSRAM, sondern viele Firmen in der Industrie arbeiten. Aber unsere Rolle ist natürlich diese Lichtsysteme dafür zu entwickeln und schauen, wo können wir als OSRAM einen Mehrwert und eine Lösung für unsere Kunden schaffen.

Dieter: Du hast von LiDAR geredet. Das habe ich schon tausendmal gehört und ich glaube unsere Zuhörer auch, aber was ist denn überhaupt LiDAR?

Gunnar: LiDAR ist eine Abkürzung und steht für light detection und ranging. Das witzige ist, dass es keine neue Sache ist, sondern etwas sehr altes, was man seit langer Zeit zum Beispiel in der Atmosphärenphysik verwendet, um herauszufinden, welche Gaskonzentration man in hundert Kilometer Höhe hat. Im Bereich autonomes Fahren verwendet man das um Entfernungen um das Fahrzeug messen zu können. Das heißt, wenn man vom LiDAR-Sensor spricht, dann spricht man von einem Sensor, der in der Lage ist, in einer ganz bestimmten Richtung zu messen, wie weit ein Objekt weg ist. Und dass der LiDAR Sensor eine direkte Entfernungsmessung machen kann, unterscheidet ihn von anderen Sensoren.

Dieter: Aber warum muss man das entwickeln, wenn es bereits Radar gibt? Jeder kennt Radar von Schiffen oder Flugzeugen, warum nicht einfach ein Radar auf dem Dach vom Auto platzieren?

Gunnar: Es ist kein Entweder-Oder. Für autonome Fahrzeuge benötigt man die Kombination aus Sensoren, üblicherweise Kamera, Radar und LiDAR, da jeder dieser Sensoren bestimmte Vorteile hat. Ein LiDAR-Sensor kann zum Beispiel mit sehr guter Auflösung in großen Entfernungen Bilder machen. Ich kann sehen, ob in 200 Metern ein Mensch steht oder ob da kein Mensch steht. Ein Radar kann zum Beispiel nicht so hoch aufgelöst messen. Auf der anderen Seite wird viel mit Kameras gemacht, diese können Farben sehen und können zum Beispiel super Verkehrszeichen sehen. Mit Kameras kann man auch schauen, welchen Gesichtsausdruck ein Mensch am Straßenrand hat und erkennen, ob er so aussieht, als würde er gleich über die Straße gehen oder nicht. Was die Kamera aber wiederum nicht kann, ist die Entfernung zu messen. Oder bei einem Schattenwurf auf der Straße sieht die Kamera nur eine Linie. Aber ob das jetzt nur ein Schatten ist oder ob dort eine Stange oder sogar ein Baumstamm liegt, kann die Kamera in bestimmten Umständen nicht oder nur mit Unsicherheit unterscheiden. Und wenn ich direkt die Entfernung messen kann mit einem LiDAR, dann kann ich sehen, ob da eine größere Unebenheit ist, oder ob es nur ein Schatten ist. Das heißt man kombiniert die einzelnen Vorteile dieser Sensoren, wie Entfernung, Auflösung, Wetter, Tauglichkeit, Farben sehen und Nachtsicht, dass man ein komplettes Umfeldmodell des Fahrzeuges hat, was möglichst zuverlässig ist.

Dieter: Dann werden alle drei Systeme, also Kamera, Radar und LiDAR in jedem Auto verbaut oder setzt sich irgendwann die eine Technologie durch?

Gunnar: Wir gehen heute davon aus, dass man in autonomen Fahrzeugen diese drei Sensoren, also Kamera, Radar, LiDAR parallel verwenden wird. Zum einen ergänzen sich diese Sensorsysteme mit ihren Vor- und Nachteilen gegenseitig. Und zum anderen ist es so, dass man eine gewisse Redundanz bekommt, dadurch dass man mehrere Sensorsysteme verwendet. Wenn zum Beispiel ein Sensor keine Sicherheit geben kann, dann schaut man, was der andere Sensor sagt. Und so kann man sich auf mehrere Systeme verlassen und nur wenn ein konsistentes Bild entsteht, eine entsprechende Entscheidung ableiten. Solche Konzepte kennen wir zum Beispiel aus der Luftfahrt, wo so etwas natürlich auch viel gemacht wird. Sicherheit ist das ganz große Thema, weswegen man ganz genau wissen muss, was um das Fahrzeug los ist.

Dieter: Um auf die Physik des Verfahrens zurückzukehren, wie funktioniert das genau? Ein LiDAR-Modul sendet ja Lichtimpulse-Laser. In welchem Bereich ist das, welche Wellenlänge ist dabei entscheidend? Und die zweite Frage, ich war vor zwei Jahren auf der CES 2018 in Las Vegas mit OSRAM und da hatten wir auch diverse LiDAR-Module gezeigt. Bis jetzt habe ich so ein Bild vom LiDAR-Modul, dass das Auto auf dem Dach so ein rundes Ding hat, welches sich super schnell dreht und die Umgebung erfasst. Aber ist es nicht so gedacht, dass die LiDAR-Module irgendwo da verbaut werden, wo man sie auch nicht so sieht, zum Beispiel in einem Frontscheinwerfer oder im vorderen Bereich?

Gunnar: Also ich mache mal beide Fragen hintereinander. Wie funktioniert das genau mit dem Laser und der Wellenlänge? Es ist so, dass wir für unsere LiDAR-Module eine Wellenlänge von etwa 900 Nanometern verwenden. Das heißt, es ist kein sichtbares Licht, weil man natürlich auch niemand stören oder blenden möchte. Und auf der anderen Seite sind die Bauteile, also die Laserdioden, aber auch die Detektoren, um den Puls wieder zu empfangen, technologisch gut verfügbar und so weit entwickelt, dass man sie entsprechend kostengünstig im Fahrzeug einbauen kann. Der Punkt was kann ich in ein Fahrzeug einbauen und was kostet das, geht auch direkt auf den zweiten Teil deiner Frage ein. Technisch sind diese LiDAR-Systeme auch heute schon super gut. Ich kann ein perfektes LiDAR-Bild um mein Fahrzeug haben, wenn ich mir so einen Sensor auf das Dach bauen lasse. Aber ist das wirklich tauglich ist das normale Fahrzeug haben wahrscheinlich nicht, wenn ich Kosten und Design berücksichtigen möchte. Das heißt, es geht ganz klar dahin, dass diese LiDAR-Sensoren, wie auch andere Kamera oder Radarsensoren entweder im Scheinwerfer verbaut sind oder hinter der Windschutzscheibe, wo heute häufig die Kameras sind. Oder wie man es von den Abstandsradar kennt, auch im Kühlergrill. Das heißt das LiDAR, was man heute noch so prominent als die Dose auf dem Dach kennt, das wollen wir das Fahrzeug integrieren.

Dieter: Wir sprechen die ganze Zeit jetzt über autonom fahrende Autos oder teil autonom fahrende Autos. Wir kennen sie längst aus Blockbustern oder Science-Fiction Filmen. In einigen Filmen fliegen die Autos im Jahr 2020 sogar schon, auch wenn das noch große Zukunftsmusik ist. Aber wo sind die autonom fahrenden Autos? Wir sind im Jahr 2020 und irgendwie sehe ich nicht sehr viele Autos, die komplett autonom fahren. Kannst du dazu etwas sagen?

Gunnar: Ich glaube, das muss man tatsächlich zweiteilen. Auf der einen Seite gibt es diese hoch autonomen Fahrzeuge, die gibt es durchaus auch als Testfahrzeuge. Das heißt, wir sehen in der näheren Zukunft voll autonome Fahrzeuge in bestimmten Use Cases. Also sei es der Shuttle, der Gäste von einer Messehalle zu der anderen fährt oder ein Shuttle, der auf einer bestimmten Route vom Flughafen in die Innenstadt fährt. Das sind begrenzte Use Cases aus abgegrenzter Autonomie. Das gibt es heute schon, und deswegen werden mehr und mehr davon sehen. Bis wir aber diese voll autonomen Fahrzeuge als unsere Privatflugzeuge haben, erwarte ich, dass das noch deutlich mehr als fünf Jahre dauern wird, bis das wirklich in die Breite geht. Wir konzentrieren uns in unserer Arbeit auf Fahrerassistenzsystem, weil wir erwarten, dass das schon in den nächsten Jahren mehr und mehr Bedeutung bekommen wird. Und das sieht man natürlich nicht unbedingt auf der Straße, denn auf der einen Seite haben die Autos nicht mehr die Dosen auf dem Dach und auf der anderen Seite haben sie trotzdem noch einen Fahrer. Aber die Assistenzsysteme sind aus meiner Sicht eine große Erleichterung. Wenn ich lange Autobahnfahrten abgeben kann oder den Stau verwenden kann, um etwas anderes zu machen, dann habe ich natürlich viel gewonnen.

Dieter: Ich kenne das nur mit Kameras, dass Kameras mittels Software das Ganze erfassen und diese Teilautonomie ermöglichen oder ist da schon LiDAR mit im Spiel?

Gunnar: Es gibt erste Fahrzeuge, in denen ein LiDAR eingebaut ist, aber diese Teilautonomie der Stufe drei gibt es im Moment auf den deutschen Straßen noch nicht. Da sieht man auch, dass es ein sehr komplexes Thema ist. Da geht es nicht nur darum die Technik zu entwickeln, damit es überhaupt möglich ist, denn die Technik ist da relativ weit. Es geht auch darum, dass durch Tests entsprechend abzusichern, damit man seinem Fahrzeug alle möglichen Fälle beibringt, die dort passieren können. Und nicht zuletzt geht es auch um die Gesetzgebung, die ermöglicht, dass ich die Verantwortung an das Fahrzeug abgeben darf. Das ist das, wo wir heute 2020 bei dem Thema Teilautonomie sind. Dann gibt es dieses hoch automatisierte Fahren, Level vier und fünf, wo das Fahrzeug alles kann und man dann entweder noch eingreifen kann oder überhaupt nicht mehr eingreifen kann. Und das ist das, wo meiner Meinung nach noch einige Zeit vergehen wird, bis wir das in der Breite in unseren Garagen haben werden.

Dieter: Welche Challenge siehst du noch vor dir als Chefentwickler bei OSRAM für LiDAR Systeme? Woran arbeitet man jetzt gerade mit Hochdruck oder welche Probleme gibt es noch zu lösen?

Gunnar: Der Knackpunkt aus meiner Sicht ist, das Ganze wirklich serientauglich zu bekommen. Und das bedeutet natürlich, dass die Funktionalität komplett bereitgestellt werden muss. Der LiDAR-Sensor also die richtige Reflexionsqualität, Reichweite, Auflösung und so weiter hat. Das Ganze muss aber auch qualitativ den Anforderungen genügen, dass das Ganze sowohl im Winter als auch im Hochsommer zuverlässig über viele Jahre funktioniert. Das heißt Serientauglichkeit für ein ganz normales Fahrzeug und dass dieses gesamte Paket natürlich von der Kosten- und Preisposition so ist, dass wir uns das auch kaufen würden und es nicht etwas ist, was nur Topsegment bleiben kann.

Dieter: Blöde Frage, aber was ist jetzt genau der Unterschied zwischen Sommer und Winter für LiDAR? Wo ist hier das Problem?

Gunnar: Sommer und Winter sind erst mal ein riesen Temperaturunterschied. Das System muss bei minus 20 Grad funktionieren und wenn die Sonne in das Fahrzeug scheint und es an den entsprechenden Stellen 80 Grad warm wird, muss das System das auch überleben und noch ordentlich funktionieren. Das ist das eine, aber das System muss auch bei Schneefall genauso funktionieren. Reflektionen und optische Bilder, die entstehen von einer Schneedecke, muss das Fahrzeug genauso können, wie eine normale Straßensituation im Sommer.

Dieter: Du sagst ja, dass mit LiDAR das Auto auf bis zu 250 Meter sehen kann. Wie kommt diese Nummer zustande? Ein Laser kann ja wahrscheinlich über km strahlen, wenn die Strecke gerade ist, warum sieht das Auto dann nur 250 Meter?

Gunnar: Das kommt vom Anwendungsfall. Wie weit muss das Auto überhaupt sehen, damit das Auto noch eine Fahrfunktionen ableiten und reagieren kann? Wenn ich schnell auf der Autobahn fahre heißt es, wann kann ich noch von 130 Kilometer pro Stunde oder schneller sicher abbremsen, wenn irgendetwas unerwartet passiert? Da kommt die Zahl erst mal her, und dann ist es natürlich auch wieder eine wirtschaftliche Abwägung. Was kann und will ich mir leisten? Muss ich da ein LiDAR einbauen, welches 500 Meter weit gucken kann, der entsprechenden natürlich auch größer und teurer wird oder reichen mir eben 200 oder 250 Meter, um normal auf der Autobahn fahren zu können?

Dieter: Hier eine Nachfrage: wenn ein LiDAR-Modul Licht aussendet, dann wird das Licht reflektiert von Gegenständen und es entsteht so ein Pixel Bild, wo kleine Punkte ein 3D-Bild ergeben. Da braucht man wahrscheinlich auch eine sehr leistungsfähige Software, die aus den Unmengen von Daten, Befehle für das Auto ableiten kann. Wie funktioniert diese Zusammenarbeit mit Softwareentwicklern oder entwickeln wir Software selber?

Gunnar: Sowohl als auch. Bei uns ist es so, dass wir bei OSRAM selbst an Software für die LiDAR-Sensor arbeiten. Wir arbeiten aber natürlich auch mit Partnern, die auf Software spezialisiert sind zusammen und nicht zuletzt natürlich auch mit unseren Kunden. Da muss tatsächlich sehr viel passieren. Auf der einen Seite habe ich dann so ein Punktebild, welches interpretiert werden muss. Ist das ein Auto, Fußgänger, Baum, Verkehrsschild oder ist das vielleicht irgendeine Störung? Mit welcher Sicherheit sehe ich etwas? Ein weiterer Schritt ist dann, dass die Bilder und Informationen, die aus einem LiDAR abgeleitet werden, dann zusammengeführt und verglichen werden mit den Informationen aus der Kamera und dem Radar. Erst aus diesem Gesamtbild werden dann in der Software Fahrfunktionen abgeleitet.

Dieter: Wenn du jetzt für dein Team Verstärkung suchen würdest, was soll dann derjenige oder diejenige mitbringen, damit man im Bereich autonomes Fahren bei OSRAM arbeiten kann?

Gunnar: Ein ganz wichtiger Punkt ist für mich, etwas neues bauen und erreichen zu wollen. Wir arbeiten hier an der Lösung für das autonome Fahren der Zukunft. Und wer Lust hat, ein Teil davon zu sein und mit seiner spezifischen Fach Expertise beizutragen, ist prinzipiell spannend für uns. Das heißt, ich suche engagierte Leute mit der spezifischen Expertise. Sei es jetzt Hardware Entwicklungsingenieure, die besonders gut in der Optikentwicklung sind oder Automobilelektronik mit uns entwickeln. Was auch für LiDAR ein wichtiger Bereich ist, sind Softwareentwickler, die Automotive Software entwickeln können oder schon Erfahrungen gesammelt haben oder uns helfen, den sehr umfangsreichen Bereich des Testings aufzubauen.

Dieter: Umfangreich ist der Bereich definitiv und hast so viele Themen auf dem Tisch. Und vor allem arbeitest du an einen Bereich, der gerade im Entstehen ist. Das muss ja schon ein tolles Gefühl sein. Was macht dir an deiner Arbeit am meisten Spaß?

Gunnar: Zum einen ist es genau das, was du gerade gesagt hast. Wir bauen eine neue technische Lösung, die wir dann in X Jahren hoffentlich auf der Straße sehen werden. Und wir bauen gleichzeitig neues Geschäft für OSRAM auf. Das ist das Abstrakte, was dahintersteht. Im täglichen, sind es eher die kleinen Dinge. Wenn wir im Kundengespräch zum Beispiel hören, dass die Kunden unseren LiDAR überzeugend finden, dann ist das ein tolles Feedback. Die kreative Arbeit im Team macht mir viel Spaß, wenn am Laptop oder an der Kaffeemaschine in der technischen Diskussion Lösungen aufkommen. Wenn ein technisches Problem uns ein bisschen den Nachmittag verhagelt und ein bis zwei Tage später aus den vielen kleinen Diskussionen auf einmal Ideen und Lösungen entstehen. Und da kann man vielleicht aus der Lösung des Problems noch etwas Besseres machen, weil wir dann auf einmal noch eine besondere, positive Sensoreigenschaft daraus entwickelt können. So etwas ist natürlich auch im alltäglichen Leben ein tolles Gefühl. Wir waren jetzt zum Beispiel auch auf der CES und haben unseren LiDAR-Sensor vorgestellt. Das ist natürlich auch super, wenn die Arbeit der letzten Monate dann greifbar und plastisch auf dem Tisch steht und nicht nur am im Rechner und auf PowerPoint ist. Das finde ich schon cool.

Dieter: Gunnar, vielen Dank für deine Zeit. Du hast den Bereich autonomes Fahren auch mir nochmal erneut erklärt und gezeigt, wie viele Möglichkeiten wir dahaben werden und wie stark OSRAM involviert ist. Ich danke dir für deine Zeit und wünsche auf jeden Fall viel Erfolg bei den weiteren Entwicklungen und Entdeckungen.

Gunnar: Dankeschön, das Gespräch hat Spaß gemacht und auch danke an alle Zuhörer!

In dieser Episode vom Photonstudio hat Gunnar mir erklärt, was sich hinter der Abkürzung LiDAR verbirgt und warum diese Module für das autonom fahrende Auto der Zukunft so wichtig sind. Diese und alle anderen Episoden unseres Podcasts können Sie auf iTunes, Spotify, Soundcloud und Google Podcast hören. Wenn sie mehr über Lasersysteme zur Umgebungserfassung und deren Bedeutung für autonomes Fahren wissen möchten, lesen Sie die Online-Version unseres Innovationsmagazins ON. Auf unserer OSRAM Group Website im Bereich Innovation finden Sie zudem viele weitere spannende Artikel aus der Welt der Photonik. Viel Spaß damit und bis zur nächsten Episode im Photonstudio.

Photonik ist DIE Schlüsseltechnologie von OSRAM