BEV-LLM - Wie eine neue KI-Technologie das autonome Fahren transparenter macht

Autonomes Fahren gilt als Zukunft der Mobilität – sicherer, effizienter, selbstständig. Doch damit wir als Menschen diesen Fahrzeugen auch wirklich vertrauen, müssen ihre Entscheidungen nachvollziehbar sein. Eine spannende Entwicklung aus München zeigt, wie genau das gelingen kann – mit Hilfe von KI, Sprache und innovativer Sensorik.

Was ist BEV-LLM?

BEV-LLM ist ein neu entwickeltes, leichtgewichtiges KI-Modell, das Szenen im Straßenverkehr in natürliche Sprache „übersetzen“ kann – also das, was ein autonomes Fahrzeug sieht, in einfache Beschreibungen umwandelt. Genau das sorgt für mehr Transparenz und ein besseres Verständnis zwischen Mensch und Maschine.

Das Besondere: BEV-LLM kombiniert 3D-Daten von LiDAR-Sensoren (die Entfernungen und Formen erkennen) mit Bildern aus mehreren Kameraperspektiven. Diese sogenannte BEVFusion (BEV steht für „Bird’s Eye View“) ermöglicht einen Rundumblick auf die Umgebung des Fahrzeugs.

Fokus auf das Wesentliche – mit Positional QFormer

Eine technische Besonderheit ist der sogenannte Positional QFormer. Er hilft der KI dabei, sich auf bestimmte Blickrichtungen – zum Beispiel nur nach vorne – zu konzentrieren und gezielt diese Szene zu beschreiben. So lassen sich nicht nur komplette Straßenszenen, sondern auch einzelne Bereiche im Detail erklären.

Klein, aber oho – und in 48 Stunden trainiert

Anders als viele große Sprach-KI-Modelle wurde BEV-LLM bewusst kompakt gehalten. Das Modell nutzt ein kleines Sprachmodell mit nur etwa 1 Milliarde Parametern – was bedeutet, dass es mit deutlich weniger Rechenpower trainiert werden konnte. Ganze 48 Stunden Training reichten aus, um Ergebnisse zu erzielen, die mit weitaus größeren Modellen mithalten – oder sie sogar übertreffen.

Neuer Datensatz für bessere Standards: nuView

Zur Entwicklung wurde auch ein komplett neuer Datensatz namens nuView erstellt. Dieser besteht aus synthetisch generierten Fahrszenen, die Bild für Bild mit einer Sprach-KI beschrieben wurden. BEV-LLM setzt bei der Auswertung dieses Datensatzes neue Maßstäbe – vor allem durch seine Fähigkeit, verschiedenste Aspekte gleichzeitig zu erfassen: Lichtverhältnisse, Wetter, Objektabstände und vieles mehr.

Ein Projekt aus München – mit großer Wirkung

Hinter dem Projekt steht das Intelligent Vehicles Lab (IVL) der Hochschule München in Zusammenarbeit mit USANEERS. Das Team forscht an der Schnittstelle zwischen KI, Fahrzeugtechnik und Mensch-Maschine-Kommunikation. Ihre Arbeit wurde bereits auf der renommierten Konferenz IEEE IV2025 anerkannt und veröffentlicht.

Warum das wichtig ist

Autonome Fahrzeuge müssen nicht nur sicher fahren, sondern auch erklären können, warum sie etwas tun. BEV-LLM ist ein großer Schritt in diese Richtung. Die Technologie zeigt, wie maschinelles Sehen, Sprachverständnis und clevere Architektur zusammenkommen können – für mehr Vertrauen, Transparenz und Sicherheit auf unseren Straßen.

Du willst mehr zu unserer Arbeit im Bereich Automotive erfahren?