Jeder kennt bestimmt die Videos von den autonom fahrenden Transportkisten in den USA, die machen mitunter lustige Unfälle, fallen Treppenstufen herunter, bleiben vor der Mülltonne stehen und bitten diese aus dem Weg zu gehen, klemmen sich unter Bahnschranken ein und und und… doch der Traum vom autonomen Fahrzeug mit Full-Self-Driving, also FSD ist ja für einige immer noch nicht ausgeträumt, das kommt laut einem CEO einer Automobil herstellenden Software-Bude gefühlt seit zehn Jahren immer nächstes Jahr, bestimmt, irgendwann, aber die Frage ist doch immer noch: Wie wird es dann sein? Mit der AULA KI wird es sicherer!
Autonomes Fahren hat längst gelernt, die Welt zu sehen. Unbestritten! Das kann in einigen Momenten auch richtig gut funktionieren. Ich selbst bin autonom schon über Rennstrecken gefahren, bzw. wurde gefahren, ich selbst bin teilautonom schon über die Autobahnen gefahren, das funktioniert!
Die unangenehme Frage ist nur, ob das System es auch merkt, wann es die Außenwelt nicht mehr richtig sieht. Jeder der Assistenzsysteme im Fahrzeug nutzt kennt den Hinweis: Sicht gestört, ich schalte mich ab! Zack, der Fahrer wieder in der kompletten Verantwortung und dies lässt mich in der Tat zweifeln, vor allem an Systemen die nicht redundant funktionieren und aufgebaut sind.
Regen, Schnee, Nebel oder ein zugewucherter Randstreifen sind keine exotischen Sonderfälle, sondern Alltag und was bringt es uns, wenn uns das selbstfahrende Auto der Zukunft zum Beispiel in einen Fluss fährt oder bei schlechter Sicht einfach nicht reagiert? Regen, Schnee, Nebel, macht nicht nur uns Menschen zu schaffen! Genau in diesen Fällen wird es für automatisierte Systeme gefährlich, weil die Daten nicht komplett ausfallen, sondern nur schlechter werden. Messwerte kommen noch an, aber sie werden unzuverlässig.
Tropfen und Flocken tauchen in LiDAR Echos als scheinbare Hindernisse auf, Nebel streut Signale, Vegetation zieht wie ein Vorhang durchs Sichtfeld. Das Ergebnis ist eine Wahrnehmung, die nicht eindeutig falsch ist, aber eben auch nicht mehr präzise genug für sichere Entscheidungen.
An dieser Schwelle setzt das vom Bund geförderte Forschungsprojekt AULA KI der Otto von Guericke Universität Magdeburg an. Die Idee ist so simpel wie konsequent: Ein autonomes Fahrzeug muss nicht nur seine Umgebung interpretieren, sondern die Verlässlichkeit der eigenen Sensorik mitbewerten.
Erst wenn das System weiß, wann es seinen Messdaten noch vertrauen kann und wann nicht, kann es im Zweifel richtig handeln.
Was ist hier eigentlich neu und warum ist das mehr als Wettererkennung?
Viele Ansätze im Umfeld autonomer Fahrzeuge versuchen, Wetterbedingungen zu klassifizieren oder einzelne Artefakte in Sensordaten zu filtern. AULA KI zielt auf etwas Grundsätzlicheres. Es geht um maschinelle Selbsteinschätzung, also um die Fähigkeit der KI, die eigene Wahrnehmung kritisch zu betrachten. Das klingt nach Philosophie, ist aber harte Sicherheitstechnik.
Denn die gefährlichste Situation ist nicht der Totalausfall, sondern der Zustand dazwischen: Daten wirken plausibel, aber die Unsicherheit ist hoch. Wenn ein System dann mit der gleichen Entschlossenheit weiterfährt wie bei perfekten Bedingungen, entsteht Risiko nicht durch fehlende Information, sondern durch falsches Vertrauen.
Die Magdeburger Forscher machen diese Grenze technisch greifbar, indem die KI Störungen in den Sensordaten autonom erkennt und daraus im Zweifel eine sichere Reaktion ableitet. Und diese Reaktion ist in der praktischen Umsetzung vor allem eines: kontrolliert anhalten.
Wie testet man so etwas, ohne sich in Theorie zu verlieren?
Im Projekt blieb es nicht bei Simulationen und Laboraufbauten. Die Konzepte wurden teilweise als Software umgesetzt und an einem autonomen EasyMile EZ10 Shuttle der zweiten Generation erprobt.
Das Fahrzeug ist in etwa 2 mal 2 mal 4 Meter groß, nimmt bis zu sechs Personen mit und ist mit einer Sensorik bestückt, die in diesem Segment typisch ist, aber im Detail bemerkenswert: unter anderem acht LiDAR Sensoren und zwei Kameras. Getestet wurde auf dem Galileo Testfeld der Universität Magdeburg im Wissenschaftshafen, also in einer Umgebung, die real genug ist, um echte Störeinflüsse zu erzeugen, aber kontrolliert genug, um sie systematisch zu untersuchen.
Entscheidend ist dabei, dass „unsichere Sensordaten“ nicht bedeutet, dass gar nichts mehr da ist. Die Messwerte sind vorhanden, nur sinkt ihre Verlässlichkeit. Genau diesen Zustand soll das System erkennen, bevor es falsch reagiert.
Was passiert bei Nebel, Regen, Schnee und Bewuchs wirklich?
Die Versuche zeichnen ein differenziertes Bild, und das ist ein gutes Zeichen, weil es nicht nach Wundertechnik klingt. Nebel ließ sich sehr zuverlässig detektieren, allerdings war eine vollständige Kompensation der Störungen nur eingeschränkt möglich. Das ist plausibel, weil Nebel eben nicht einfach ein paar Ausreißer produziert, sondern die Signalphysik über größere Bereiche verschiebt.
Bei Regen und Schnee gelang nicht nur die Erkennung der Störungen, sondern in Teilen auch eine Kompensation. Das bedeutet praktisch: Das System kann zumindest einen Teil der Artefakte so behandeln, dass die nachgelagerte Wahrnehmung nicht komplett aus dem Tritt kommt.
Vegetation wiederum wurde zuverlässig als Einfluss erkannt, erwies sich im Testbetrieb aber stellenweise als so massiv, dass eine sichere Weiterfahrt nicht mehr möglich war.
Das ist ein Satz, der im Alltag von autonomen Konzepten zu selten fällt, aber eigentlich der wichtigste ist: Es gibt Bedingungen, in denen ein System korrekt entscheidet, indem es nicht weiterfährt.
Ist Anhalten wirklich eine Lösung oder nur ein Sicherheitspflaster?
Im Projekt wurde als Reaktionsstrategie vor allem das kontrollierte Anhalten bei starker Störung realisiert. Die Begründung ist klar: Selbst wenn die Sensordaten nicht vollständig korrigiert werden können, ist es sicherheitsentscheidend, dass das System die Störung zuverlässig erkennt. Lieber stoppen als mit scheinpräzisen Daten weiter planen.
Allerdings zeigt sich in den Extremtests auch die Kehrseite. Die Störungserkennung arbeitete teils so konsequent, dass das Shuttle aus Vorsicht stehenblieb. Wissenschaftlich ist das erst einmal ein starkes Ergebnis, weil es die Risikologik demonstriert.
Für den späteren Betrieb ist es aber ein Entwicklungsauftrag mit Ansage. Ein autonomes Fahrzeug, das zu häufig stehen bleibt, ist im urbanen Betrieb nicht nur unpraktisch, sondern kann neue Risiken erzeugen, weil es Verkehr flusstört, Folgekonflikte provoziert und Akzeptanz verspielt.
Sicherheit darf nicht in Betriebsverweigerung kippen, sonst wird aus „robust“ schnell „unbrauchbar“.
Wie passt das Thema Unsicherheit aus der KI Forschung hier hinein?
Dahinter steckt ein Zielkonflikt, den viele in der Praxis unterschätzen: Größere Modelle liefern oft bessere Segmentierung, neigen aber dazu, zu selbstsicher zu sein. Kleinere Modelle sind weniger leistungsfähig, schätzen ihre Unsicherheit aber häufig besser ein. Und diese Unsicherheitskalibrierung ist im autonomen Fahren ein Schlüssel, weil sie bestimmt, wie defensiv ein System reagieren darf, ohne permanent in den Notfallmodus zu springen.
Also kombiniert man Modelle unterschiedlicher Größe innerhalb eines festen Rechenbudgets, um beides zu verbessern:
Innerhalb vergleichbarer Budgets können solche Ensembles einzelne große Modelle übertreffen, und zwar nicht nur in der Aufgabe, sondern gerade bei der Frage, wie glaubwürdig die eigene Sicherheitseinschätzung ist.
In der Logik von AULA KI ist das keine Parallelwelt, sondern eine Anschlussstelle. Denn die beste Störungserkennung nützt wenig, wenn das System die Unsicherheit entweder übertreibt und ständig stoppt, oder unterschätzt und zu lange weiterfährt. Die Kalibrierung entscheidet, ob Notbremse ein seltener Rettungsanker bleibt oder zur Routine wird.
Warum Mixed Reality Tests hier nicht „nice to have“ sind
Die langen Auszüge zur Mixed Reality Erprobung wirken auf den ersten Blick wie ein eigenes Thema, sind aber in Wahrheit die Antwort auf ein praktisches Problem:
Hochautomatisierte Funktionen lassen sich nicht mehr vollständig durch reale Fahrversuche absichern, weil die Szenariovielfalt und die Systemkomplexität explodieren.
Reine Simulationen wiederum bilden die Welt nie vollständig ab.
Mixed Reality setzt genau dazwischen an, indem reale Komponenten mit virtuellen Elementen in einer gemeinsamen Testwelt gekoppelt werden, etwa über Sensorfusion, speziell für LiDAR.
Der Vorteil ist brutal praktisch: Man kann Störungen gezielt einspeisen, reproduzierbar variieren, schrittweise von virtuell zu real übergehen und Fehlerquellen isolieren.
Gerade bei Wettereffekten und Wahrnehmungsfehlern ist das Gold wert, weil man sonst von zufälligen Naturbedingungen abhängig ist. Die Technik wird so nicht nur erforscht, sondern systematisch verifizierbar gemacht.
AULA KI zeigt einen Weg, wie autonome Systeme erwachsener werden können. Nicht indem sie behaupten, immer alles zu sehen, sondern indem sie lernen, die Grenzen der eigenen Wahrnehmung zu erkennen und daraus sichere Reaktionen abzuleiten.
Das kontrollierte Anhalten ist dabei weniger Kapitulation als ein Sicherheitsversprechen: Wenn es zu unsicher wird, wird nicht geraten, sondern gestoppt.
Gleichzeitig liegt die nächste Hürde offen auf dem Tisch. Zu vorsichtig ist im realen Betrieb nicht automatisch besser. Ein System muss Unsicherheit nicht nur erkennen, sondern so gut kalibrieren, dass es zwischen „noch beherrschbar“ und „wirklich gefährlich“ sauber unterscheiden kann.
Am Ende entscheidet nicht die Frage, ob autonome Fahrzeuge bei Sonnenschein funktionieren. Entscheidend ist, ob sie bei schlechtem Wetter nicht nur langsamer werden, sondern klüger. Und ob ihre Notbremse dann greift, wenn sie muss, nicht wenn sie nur nervös ist.





















