Die Arbeit befasst sich mit der Entwicklung eines Perzeptionsmodells, das in der Lage ist, 3D-Occupancy-Grids aus einer variablen Anzahl von Kameraeingaben vorherzusagen. Im Gegensatz zu herkömmlichen Architekturen, die von einer festen Anzahl und Anordnung von Kameras ausgehen, liegt der Fokus auf der Kompatibilität mit beliebigen Kamerakonfigurationen, die sich in Anzahl, intrinsischen Parametern und extrinsischer Platzierung unterscheiden können. Es sollen bestehende BEV-basierte (Bird’s Eye View) Perzeptionsarchitekturen angepasst und erweitert werden. Zur Validierung werden Verfahren des Deep Learnings, datengetriebene Modellanpassung, sowie Benchmarking-Methoden eingesetzt. Die Trainings- und Evaluationsphase stützt sich auf offene Realwelt-Datensätze und synthetische Daten.
Aufgaben
- Analyse bestehender BEV-Architekturen hinsichtlich Erweiterbarkeit für variable Kamerakonfigurationen
- Entwicklung eines Modells und einer Trainingsstrategie für heterogene Kamera-Setups, einschließlich Szenarien mit fehlenden oder neu hinzugefügten Kameras
- Benchmarking des entwickelten Ansatzes auf open-source Datensätzen und synthetischen Daten
Anforderungen
Studiengänge
- Informatik
- Künstliche Intelligenz
- Robotik
- Fahrzeugtechnik
- Data Science oder vergleichbarer Studiengang
Studienschwerpunkte
- Softwareentwicklung und Programmierung
- Machine Learning und Deep Learning
- Computer Vision
Sprachkenntnisse
- Englisch (fließend in Wort und Schrift)
- Deutsch von Vorteil
Soft Skills
- Hohe Eigeninitiative
- Ausgeprägte analytische Fähigkeiten
- Strukturierte und eigenständige Arbeitsweise
- Teamfähigkeit
- Zielorientierung
Fachkenntnisse
- Erfahrungen in Machine Learning und Deep Learning
- Verständnis von Sensordatenfusion
- Grundlagen der Kamerasensorik
- Grundlagen der 3D-Datenverarbeitung
IT-Kenntnisse
- Sicherer Umgang mit MS Office
- Fundierte Kentnisse in Python, C oder C++
- Erfahrungen mit Git, Gitlab und Linux (Ubuntu)
- Erfahrung mit Machine Learning und KI-Frameworks (PyTorch, TensorFlow)