Die Masterarbeiten finden in Zusammenarbeit mit unseren Kooperationsuniversitäten statt oder aushandelbar auf Wunsch der Kandidatinnen und Kandidaten mit ihren eigenen Universitätskontakten. Als Teil der individuellen Wunschvorstellungen kann ein nahezu beliebiger Anteil remote bearbeitet werden sowie je nach Notwendigkeit an einem Fahrzeug und Hardware in München.
Themen
Zur Auswahl stehen mehrere Themen/Themenbereiche um den Aufbau eines automatisierten selbstfahrenden Fahrzeugs in Bezug auf Sensorik, Datenmanagement, Datenkommunikation („Connected Car“), Sensordatenfusion, Softwarearchitektur, Trajektorienplanung, Simulation, Perception, Hil/SiL. Grundsätzlich lassen sich auch Teile kombinieren und erweitern, je nach Interesse und Erfahrungen. Die Software des Fahrzeugs wird größtenteils auf dem Robotic Operating System (ROS2) basieren, für welches ein großes Ökosystem zahlreicher vorgefertigter Komponenten bereitsteht.
Bereich 1 – Realisierung einer KI-basierten Objekterkennung mit 3D Bounding-Box und/oder Stereokamera.
- Diese soll zunächst in einer Simulationsumgebung (CARLA) und später im Fahrzeug realisiert und evaluiert werden. Du führst eine Literaturrecherche über anwendbare Komponenten durch und bewertest systematisch deren Einsetzbarkeit und notwendige Anpassung in die Zielarchitektur des Systems. Relevante Bewertungskriterien sind außerdem: Continuity, Schnelligkeit (HIL-Aufbau mit einer NVIDIA Plattform). Du realisierst die Komponente(n) und evaluierst sie mit Testfällen oder Benchmarks.
- Erweiterung: (i) SLAM und Hinzunahme von LIDAR, oder (ii) Implementation neuer KI-Methoden für die Einbeziehung von A-priori-Wissen für die Verbesserung der Performance und Verbesserung einer Auto-Labeling-Implementation.
- Erweiterung: Implementation neuer KI-Methoden für die Einbeziehung von A-priori-Wissen für die Verbesserung der Performance und Verbesserung einer Auto-Labeling-Implementation.
Bereich 2 – Generierung von simulierten Lerndaten in CARLA
- Implementation und Entwicklung eines Verfahrens zur systematischen und kontrollierten Generierung von statischen und dynamischen Szenarien inkl. Verkehrslayouts in OpenDRIVE/OpenSCENARIO, z.B. über die Definition geeigneter Parametrisierung/Zustandsräume.
- Erweiterung: automatische Szenarienklassifizierung bzgl. Manöver und ADAS-Funktionen aus „perfekten“ Szenariendaten (CARLA)
- Erweiterung: Szenarienklassifizierung, -generierung, -management, -extraktion. Insb. Trajektorienextraktion auf dem zugrundeliegenden Straßenlayout aus Messdaten.
- Erweiterung: Konzepte und Implementierung im Bereich Automatisierte Routenplanung (z.B. Abfahren aller Straßen innerhalb eines Polygons, wobei nur x% der Straßen doppelt befahren werden dürfen.)
- Erweiterung: Bottom-up KI-Ansatz für die Generierung plausibler Verkehrslayouts inkl. Fahrbahmarkierungen und Schilder
- Erweiterung: Vergleichende Studie über Szenarienbeschreibungssprachen: Mittlerweise existieren verschiedenste Sprachen zur Repräsentation von Fahrszenarien, des Fahrerverhaltens, sowie zur Simulation von Verkehr. Dazu gehören u.a. OpenDRIVE, OpenScenario sowie unserer eigene Entwicklung GeoScenario für Simulation + Driver Behavior. Das Ziel ist eine vergleichende Studie der Ausdrucksstärke dieser Technologien.
Bereich 3 – Offline (a-posteriori) Erzeugung von virtuellen, dynamischen Szenarien in CARLA aus simulierten Sensorrohdaten oder/und gelabelten Daten.
- Erweiterung: Übertragung des Verfahrens auf reale Messdaten Anhand eines existierenden Fahrzeugs. Dies beinhaltet die Nachbildung der Sensorausstattung in CARLA.
Bereich 4 – Fahrzeugautomatisierung und Sensorausrüstung, Erweiterung des (Sensor-)Datenmanagementsystem in der Cloud
- Weiterentwicklung und Optimierung von Trajektorienfolgeregelungen sowohl in der Simulation als auch im Fahrzeug wie z.B. Messung und Vergleich von realen und simulativ erzeugten Daten und darauf aufbauende Evaluation und Anpassung der Simulationsparameter, um möglichst realistische Ergebnisse erzeugen zu können.
- Sensorauswahl und –Verwendung im Fahrzeug, theoretischer Einfluss von Sensorauswahl und –Positionierung und Evaluation unterschiedlicher Konfigurationen in der Simulation.
- Erweiterung: Automatische Kalibrierung der Fahrzeugsensoren, basierend auf dem ausgewählten Setup und automatisch in Echtzeit optimiert (z.B. Kalibrierung durch KI-Modelle)
- Erweiterung und Optimierung der Sensordatenverarbeitung im Fahrzeug und der geloggten Daten durch z.B. Echtzeit Datenreduktion basierend auf konfigurierbaren Parametern mit anschließendem Transfer in ein Cloud-System und/oder die prototypische Anbindung an einen Eclipse Data Space Connector.
- Erweiterung: Automatisierte Situationserkennung basierend auf unterschiedlichen Sensordaten und Informationen, wie Beispiel LiDAR, Kamera, Objektlisten, Spurinformationen, Temperatur, Geschwindigkeit, etc. und die Extraktion sich daraus ergebender Daten.
Bereich 5 – Runtime Feature Monitoring
- Autonome Fahrzeuge bestehen aus vielfältigen Modulen, die während der Laufzeit dynamisch kombiniert und konfiguriert werden, um der jeweiligen Fahrsituation gerecht zu werden. Zur Entwicklungszeit werden die einzelnen Module sowie deren Konfigurationsraum über Features spezifiziert und bilden eine Produktlinie die den möglichen Konfigurationsraum des autonomen Fahrzeugs spezifiziert. Während der Laufzeit bewegt das autonome Fahrzeug sich dynamisch in diesem Konfigurationsraum und es ist statisch zur Entwicklungszeit oft nicht vorhersehbar in welchen exakten Konfigurationen sich das Fahrzeug in welchen Stationen befinden wird. Dies erschwert das Testen und Debuggen des autonomen Fahrzeugs sowie die Reproduktion von zur Laufzeit aufgetretenen Fehlern, da nicht bekannt ist, welche Features in welchen Situationen aktiv waren. Diese Informationen müssen meist aus Low-Level Logs rekonstruiert werden, falls dies überhaupt möglich ist.
- Um das Debugging und Logging von autonomen Fahrzeugen zu verbessern, sollen die Designzeit-Features des Fahrzeugs in dessen Sourcecode propagiert werden und zur Laufzeit durch einen Agent gemonitort werden. Dieses Monitoring soll unter anderem die Möglichkeit bieten Fehlerereignisse mit Featurekonfigurationen zu verknüpfen, überwiegend gemeinsam ausgeführte Features zu identifizieren sowie die Ressourcennutzung der einzelnen Features aufzuzeichnen.
Du überzeugst uns mit
- Laufendes Studium in Informatik, Mathematik, Physik, Ingenieurwissenschaft oder vergleichbares.
- Expertise und Grundlagen der SW-Entwicklung mit praktischen Erfahrungen im Umgang mit (Mess-)Daten.
- Etwas praktische Erfahrungen in Richtung der zur Auswahl Themen (z.B. LiDAR/Sensorik, ML-Methoden, SLAM, etc.).
- Ideal: Erfahrungen in Embedded SW, CARLA Simulator, ROS/ROS2
- Einsatz und Interesse an einem Beitrag zum Aufbau eines konkreten autonomen Systems und funktionierenden Lösungen mit Nachhaltigkeit (GDT: „Getting Things Done“).
- Befähigung zur angemessenen und sachgerechten Formulierung/Gestaltung/Kommunikation von Konzepten, Lösungsarchitekturen und entsprechenden Dokumenten.
- Kommunikationsstärke, Teamfähigkeit und Lösungsorientierung auch unter unklaren Randbedingungen.
- Guter Umgang mit MS Office, insb. PowerPoint.
- Sehr gute Deutsch- und/oder Englischkenntnisse
Kein 100%iges Match? Kein Grund zur Sorge! Capgemini Engineering unterstützt dich mit einem breitgefächerten Lernangebot, so dass du dich sowohl fachlich als auch persönlich weiterentwickeln kannst.
Bewirb dich jetzt! Wir freuen uns auf dich!