Menschen.Machen.Mikroelektronik / Fraunhofer FOKUS
Effektives KI-Training mit LIDAR-Daten
Künstliche Intelligenz (KI) kann nur so leistungsfähig operieren, wie es die Qualität der antrainierten Daten zulässt. Im Besonderen gilt dies beim Deep-Learning, das neuronale Netze nutzt, die vom menschlichen Gehirn inspiriert sind. Tools für das Labeling von Kamerabildern sind auf dem Markt bereits etabliert, entsprechende Tools für das Labeling von Laserscanner-Daten sind jedoch noch nicht verfügbar.
Herr Schäufele, wie kann das Labeling-Tool FLLT.AI dazu beitragen, dem Ziel der autonomen Mobilität näher zu kommen?
In vielen selbstfahrenden Fahrzeugen gehören LIDAR-Sensoren, also Laserscanner, zur Sensorik für die Umfelderkennung. Damit die Vehikel mit den Daten auch etwas anfangen können, muss die KI im Fahrzeug trainiert werden. Für LIDAR-Daten gibt es bis jetzt allerdings nur wenige verfügbare Datensätze. Mit unserem Labeling-Tool FLLT.AI kann man auf einfache Weise Datensätze für LIDAR-Daten erstellen. Zum einen kann man mit gleichzeitig aufgezeichneten Video-Daten automatisiert die LIDAR-Daten vorlabeln lassen. Zum anderen ist es einfach möglich, die LIDAR-Daten händisch nachzubearbeiten. Außerdem werden über Tracking Labels von einem LIDAR-Scan zum nächsten weitergeführt. So wird im Mittel nur noch 10 % der Zeit benötigt, um hochqualitative Lerndaten zu generieren.
Wie bringt der Mensch die KI voran und wird dies in Zukunft auch (fast) ohne ihn funktionieren?
Heutzutage ist es häufig so, dass man der KI beim sogenannten »Supervised Learning« Vorgaben machen muss. Die beim Training verwendeten Daten müssen von Menschen zuvor verarbeitet werden, in dem verschiedene Objekte in den Daten gelabelt werden. In der Zukunft kann das durch »Unsupervised Learning« zum Teil auch ohne Menschen funktionieren. Dabei versucht die KI beim Training Unterschiede in den Trainingsdaten zu bestimmen und so selbst Klassen zu finden. Die Prüfung, ob diese korrekt sind und die Festlegung der Parameter beim Training, müssen jedoch immer noch von einem Menschen bestimmt werden.
Wie wirkt Mikroelektronik mit Ihrem Tool zusammen?
Durch verschiedene Schnittstellen, die das FLLT.AI-Tool anbietet, können mit LIDAR-Sensoren und Kameras aufgenommene Daten direkt in das FLLT.AI-Tool integriert werden. Außerdem arbeiten wir an der Integration weiterer Sensoren, wie RADAR. Für das Labeling der Daten verwenden wir eine eigene, sehr leistungsstarke KI-Server-Farm, um die neuronalen Netze auszuführen. Gleichzeitig arbeiten wir aber auch im Projekt KI-Flex mit an der Entwicklung eines ASIC speziell für das Ausführen von neuronalen Netzen.
Was fehlt noch zum autonomen Vehikel, das ohne Sorgen auf die Straße gebracht werden kann?
Bei der Erkennung des Umfelds ist die Forschung für selbstfahrende Fahrzeuge schon sehr weit fortgeschritten. Damit können Verkehrsbereiche mit relativ geringer Komplexität, beispielsweise Autobahnen bereits gut beherrscht werden. Eine große Herausforderung ist noch die Entscheidungsfindung bei komplexen Verkehrsszenarien, wie man sie in Städten, aber auch auf Landstraßen mit Kreuzungen, vorfindet. Die Anzahl der möglichen Verkehrssituationen ist dort sehr hoch und erfordert daher eine riesige Menge an Daten, um die KI darauf vorzubereiten.
Bernd Schäufele leitet die Gruppe »Perception and Communication« im Geschäftsbereich Smart Mobility am Fraunhofer FOKUS. Er hat an großen, z. T. europaweiten Forschungsprojekten im Bereich Fahrzeugkommunikation und Kooperatives Fahren mitgewirkt, wie SimTD, Drive C2X und TEAM. Seine Forschungsschwerpunkte sind Kooperative Positionierung und Kooperative Fahrmanöver sowie Umfelderkennung mit LIDAR-und Kamera-Sensorik. In der Gruppe von Bernd Schäufele wurde das Software-Framework »FLLT.AI« entwickelt, mit dem u. a. LIDAR-Daten automatisiert und manuell gelabelt werden können, um zeitsparend qualitativ hochwertige Daten für das Training von Künstlicher Intelligenz zu erzeugen. Bernd Schäufele hat einen Masterabschluss im Studiengang Softwaresystemtechnik am Hasso-Plattner-Institut in Potsdam.
Letzte Änderung: