Open Project Day

Gemeinsame KI‑Innovationen aus Wissenschaft und Industrie: Projekt- und Poster‑Highlights
 

E-Booklet Open Project Day

Einsatz Generativer Modelle für das Automatisierte Fahren – Gemeinsame KI Innovationen aus Wissenschaft und Industrie

Open Project Day mit nxtAIM Highlights, Deep Dives und Posterpräsentationen an der Universität Freiburg

Der nxtAIM Open Project Day, der am 25. Februar 2026 an der Universität Freiburg stattfand, brachte Projektpartner, Expertinnen aus Wissenschaft und Industrie sowie Vertreterinnen des Fördergebers zusammen, um die gemeinsamen Fortschritte des Konsortiums zu präsentieren. Mit rund 120 Teilnehmenden bot die Veranstaltung lebhafte Gespräche mit nxtAIM‑ExpertInnen und einen tiefen Einblick in aktuelle Forschungsrichtungen und Projektergebnisse.

Zentrale Themen und Projekthighlights

Ein Schwerpunkt des Projekts liegt auf der Weiterentwicklung generativer KI‑Methoden. Anstatt Funktionen direkt aus Daten zu lernen, modelliert das nxtAIM‑Konsortium die Daten selbst. Dies schafft die Grundlage für vielseitige Foundation Models und ebnet damit den Weg für flexible Basismodelle im Bereich des automatisierten Fahrens.

Im Bereich Trainingsinfrastruktur, Daten und kollaborative Entwicklung erreichte nxtAIM im Jahr 2025 wichtige Meilensteine, die für den technologischen Fortschritt des Projekts entscheidend waren. Dazu gehörte insbesondere der erfolgreiche Erwerb von Rechenkapazitäten auf Europas erstem Exascale‑Supercomputer JUPITER, der die Entwicklung großskaliger Modelle ermöglicht.

Die erforderlichen Daten werden durch ein in nxtAIM etabliertes Konzept bereitgestellt, das die DSGVO-konforme Nutzung proprietärer Daten mehrerer Partner ermöglicht. Zusammengenommen bilden diese Fortschritte die Grundlage für ein abgestimmtes Datenmanagement, gemeinsame Entwicklungsprozesse und das Training generativer Modelle, die speziell für das automatisierte Fahren ausgelegt sind. Diese methodischen Beiträge stehen im Einklang mit europäischen Bestrebungen für föderiertes Training und offene, industrieübergreifende Zusammenarbeit – Ansätze, die in nxtAIM bereits fest verankert sind.

Highlight Präsentationen and Gastvorträge

Der Tag wurde durch eine Keynote von Prof. Andreas Geiger (Universität Tübingen) bereichert, der Einblicke in aktuelle Forschungstrends zu KI‑gestützter Wahrnehmung und generativer Modellierung gab. Sein Vortrag bot einen fundierten Einblick in „The Role of Synthetic Data for Autonomous Intelligence“.

Begrüßt wurden die Gäste durch Dr. Ernst Stöckl-Pukall (BMWE), der die Bedeutung gemeinsamer KI‑Forschungsinitiativen wie nxtAIM für die technologische Wettbewerbsfähigkeit Deutschlands und Europas hervorhob; virtuell begrüßt durch Frau Hildegard Müller, Präsidentin des VDA, sowie durch die nxtAIM‑Koordinatoren Dr. Jörg Reichardt (Aumovio) und Dr. Julian Schmidt (Mercedes‑Benz).

Fachvorträge und Postersession

Das Programm umfasste Highlight‑Präsentationen zu den jüngsten Ergebnissen des Konsortiums, Deep‑Dive‑Sessions mit angeregten Diskussionen sowie eine Postersession, die den Austausch zwischen Forschung und Industrie förderte.

Neben technischen Fortschritten zeigte nxtAIM auch eine starke internationale Forschungspräsenz. Projektpartner stellten ihre Ergebnisse auf führenden Konferenzen in Europa, den USA, Korea und Australien vor, darunter der British Machine Vision Conference (BMVC), International Conference on Computer Vision (ICCV), Conference on Computer Vision and Pattern Recognition (CVPR), Winter Conference on Applications of Computer Vision (WACV), International Automated Vehicle Validation Conference (IAVVC) und The Conference on Robot Learning (CoRL).

Wie geht es weiter mit nxtAIM?

Das Projekt tritt nun in seine finale Phase ein. Der nächste große Meilenstein ist das Abschlussevent im November 2026 in Frankfurt, bei dem das Konsortium Demonstrationen in der realen Welt und die vollständig abgeschlossenen nxtAIM‑Ergebnisse präsentieren wird.

Virtual Welcome von Hildegard Müller, Präsidentin des Verbandes der Automobilindustrie

Poster – nxtAIM‑Forschungs­ergebnisse im Überblick

Liste der Poster und Präsentierenden

SP 1 Single Frame Multi Sensor

1.1 | Guided Diffusion for Scalable and Semantically Controlled Augmentation of Automotive Camera Data Carolin Waltraud Wunderlich

1.2 | Image-Conditioned Radar Generation for Multimodal generation Jonas Neuhoefer

1.3 | Adapt or Augment: How to Utilize Generative Models? Joshua Niemeijer

1.4 | Synthetic FMCW Radar Range-Azimuth Map Generation Christopher Grimm, Claas Tebrügge

1.5 | Extending Automotive Camera Field of View with Generative Outpainting Omar Alnaseri

1.6 | TREAD: Token Routing for Efficient Architecture-agnostic Diffusion Training Ulrich Prestel

1.7 | Style Swap with Multi LoRA Conditioning Malte Ganzer

1.9 | Lidar NeRF, Dominik Scheuble Dominik Scheuble

1.10 | Clustering-Based Dataset Curation Frithjof Marquardt

1.11 | Evaluation of Conditioning Modes for AI Image Generation Sven Burdorf, Meghna Prabhu

1.12 | Improving Synthetic Data Quality through Data Pruning Leroy Odunlami, Sven Burdorf

1.13 | Latent Diffusion Model for sim2real Lidar Data Generation Carolin Waltraud Wunderlich, Vaithiyanathan Alagar

1.14 | Solar Altitude Guided Scene Illumination Samed Dogan

 

SP 2 Multi Frame Single Sensor

2.1 | Criticality-guided Diffusion for Counterfactual Traffic Scenario and Video Generation Adam Molin

2.2 | Self-Supervised Learning for RADAR Claas Tebrügge

2.3 | Scaling Automotive Video generation via Sparse Mixture of Experts Christian Ojeda-Bernal

2.4 | Orbis Extensions: Conditioning, Compositional Generalization, Feature Probing Sudhanshu Mittal

2.6 | Geometry-Aware Latent Compression for 3D Gaussian Driving Scenes Marius Kästingschäfer

 

SP 3 Abstract Scenarios & Planning

3.1 | WorldVLM: Combining World Model Forecasting and VLM Reasoning Katharina Winter

3.2 | Integrating Machine Learning and Control Theory for Safer Motion Planning Bojan Derajic

3.3 | Generating Trajectories with VideoGAN Annajoyce Mariani

3.4 | Divide and Merge: Motion and Semantic Learning in End-to-End Autonomous Driving Ö. Sahin Tas

3.5 | LiFlow: Flow Matching for 3D LiDAR Scene Completion Andrea Mateazzi

3.6 | End2End Autonomouos Driving: Motion Planning Under Distribution Shifts Dikshant Gupta, Michele De Vita

3.7 | Road Graph Generation Laurenz Thiel, Sven Peyinghaus

3.8 | Complete Gen-AI framework from regulations to test scenarios in automated driving validation

3.9 | EP-Diffuser: An Efficient Diffusion Model for Traffic Scene Generation via Polynomial Representations Yue Yao

3.10 | KnUT-Knowing Unkown Things Natalie Grabowsky

3.11 | Self-Supervised Pretraining for Aerial Road Extraction Christian Hubschneider

3.12 | Physics-Based Vehicle Simulation for Open- and Closed-Loop Testing of Generative Trajectory Planning Hendrik Fenske

3.13 | Towards System-Level Evaluation of Driving Functions Christian Schlauch

3.14 | Efficient Generative Rollouts for Autonomous Systems: Map-Constrained Scenario Generation with Hardware-Aware Pruning Shashank Pathak

 

SP 4 Foundation Models

4.1 | PrITTI: Primitive-based Generation of Controllable and Editable 3D Semantic Urban Scenes Christina Ourania Tze

4.2 | Measuring Gradient Noise Marcel Aach

4.3 | Customized LLM for Traffic Scenario and Electric Range Simulation Christian Schyr

4.4 | From Abstract Scenarios to Photorealistic, Synthetic Data Thies de Graaff

 

SP 5 Automotive Scalability

5.1 | Optimizing Generative AI for Integration into Automotive Systems Christian Ojeda-Bernal, Nitin Kannan

5.2 | Low Rank Compression of Neural Networks Arunachalam Thirunavukkarasu

5.3 | Driving Data in the Cloud: OpenDrive Checks & Carla Simulation Workflow Nils Worzyk, Leonard Schroven

Impressionen

Nach oben scrollen