Förderprojekt MuSEAS

  Boot auf dem Wasser mit Versuchsträger auf dem Dach Urheberrecht: © TITUS Research GmbH

Multisensor-Messdaten mit Annotationen zur Automatisierung von Schiffen

01.03.2023

Steckbrief

Eckdaten

Laufzeit:
01.03.2023 bis 31.08.2024
Akronym:
MuSEAS
Gruppe:
Navigation
Fördergeber:
BMDV

Kontakt

Telefon

work
+49 241 80-28033

E-Mail

E-Mail
 

Motivation

In der Schiffsautomatisierung besteht ein hoher Bedarf nach schifffahrtsspezifischen Messdatensätzen. Die Datenlage ist jedoch im Vergleich zu den Straßenanwendungen deutlich unterentwickelt. Insbesondere die Entwicklung von Methoden zur robusten Bestimmung des Schiffszustands (insb. Position, Orientierung, Geschwindigkeit) und Methoden zur sicheren Erkennung und Klassifizierung von Objekten in Daten optischer Sensoren ist auf solche Datensätze mitsamt Ground-Truth-Annotationen angewiesen.

 

Projektziele und Methoden

gefördert durch das Bundesministerium für Digitales und Verkehr

Ziel des Projekts ist die Erstellung und Veröffentlichung von Binnenschifffahrts-Messdatensätzen mit synchronisierten Daten gängiger Schiffssensoren. Es werden bereinigte und anonymisierte Rohdaten sowie weiterführende, mittels neuartiger Verfahren gewonnene Referenzlösungen für die Schiffslokalisierung und Umgebungserkennung verfügbar gemacht. Letztere Ergebnisse werden mit neu entwickelten und öffentlich zugänglichen Verfahren bestimmt, die als Referenz-implementierungen genutzt werden können

 

Innovation und Perspektiven

Im vorliegenden Projekt wird eine robuste Navigationslösung mittels Online-Faktorgraph Optimierung umgesetzt. Diese Methode wurde an der RWTH Aachen entwickelt und mit einem stark reduziertem Sensorsetup bereits für Binnenschifffahrtsanwendungen validiert [1]. Im Projekt wird diese Zustandsbestimmung um die Einbindung weiterer Sensordaten ergänzt, insbesondere LiDAR- und Kameradaten. Diese Ergänzung unterstützt die Zustandsschätzung insbesondere dann, wenn andere Sensordaten nicht verfügbar sind, bspw. im Falle von gestörten GNSS-Daten bei Brückendurchfahrten. Der automatische Annotationsprozess folgt einem Ansatz, der im Automotive-Bereich erstmals vorgestellt wurde: LATTE [2]. Die niedrig aufgelöste Punktwolke wird dabei auf das Kamerabild projiziert. Mithilfe des Objektklassifikators aus dem Vorgängerprojekt DataSOW werden die Bildbereiche semantisch gelabelt. Es wird ein Netzwerk generiert, das die Labels in die Punktwolke zurück projiziert. Ein Clusteralgorithmus (z.B. [3]) kann zur Segmentierung der Punktwolke genutzt werden. Darüber steht z.B. die Entfernung zum erkannten Objekt zur Verfügung.

  1. H. Zhang, X. Xia, M. Nitsch, D. Abel: Continuous-Time Factor Graph Optimization for Trajectory Smoothness of GNSS/INS Navigation in Temporarily GNSS-Denied Environments, IEEE Robotics and Automation Letters (RA-L), pp. 9115-9122, 2022.
  2. B. Wang, V. Wu, B. Wu, K. Keutzer: "LATTE: Accelerating LiDAR Point Cloud Annotation via Sensor Fusion, One-Click Annotation, and Tracking", IEEE Intelligent Transportation Systems Conference (ITSC), pp. 265-272, 2019.
  3. F. Wirth, J. Quchl, J. M. Ota, C. Stiller: "PointAtMe: Efficient 3D Point Cloud Labeling in Virtual Reality", IEEE Intelligent Vehicles Symposium (IV), pp. 1693-1698, 2019
 
Projektpartner