Daten und Künstliche Intelligenz zur Objekterkennung für die Binnenschifffahrt
Was braucht es, damit Binnenschiffe in Zukunft sicher unbemannt fahren können? Dieser Frage geht unser Forschungsprojekt DataSOW 2 nach, das sich mit der Erfassung von temporären und mobilen Objekten auf der Spree-Oder-Wasserstraße und auf dem Elbe-Lübeck-Kanal beschäftigt. Das Projekt hat eine Laufzeit von zwei Jahren und wird im Rahmen der Innovationsinitiative mFUND mit insgesamt 400.000 Euro durch das Bundesministerium für Digitales und Verkehr gefördert.
Ausgangslage
Ein unbemanntes Fahrzeug auf der Straße kann bereits heute auf viele vorhandene Daten zurückgreifen, die für eine sichere Navigation ohne Fahrer von essentieller Bedeutung sind. Auf dem Wasser, und hier insbesondere in der Binnenschifffahrt, ist die Datenlage dagegen noch sehr dünn. Hinzu kommt, dass die zunehmende Zahl an Verkehrsteilnehmern auf dem Wasser und deren große Bandbreite – vom SUP bis zum Cargofrachter – für zukünftig autonom fahrende Schiffe eine große Herausforderung darstellen.
Forschungsprojekt will Datenlücken schließen
Mit dem Forschungsprojekt „DataSOW2“ haben wir uns zur Aufgabe gesetzt, die bereits im erfolgreichen Vorgängerprojekt DataSOW 1 geschaffene Datengrundlage zu erweitern. Standen bei DataSOW 1 noch statische Infrastrukturobjekte wie Schleusen, Brücken oder Schifffahrtszeichen im Fokus, so wollen wir im Rahmen von DataSOW 2 Daten zu mobilen und temporären Objekten, die sich auf bzw. im Wasser befinden, sammeln. Dazu zählen neben Schiffen, Sportbooten und Schwimmern zum Beispiel auch Baustellen und umgestürzte Bäume. Hierfür wird die bereits vorhandene Sensorplattform auf dem TITUS-Forschungsboot erweitert.

Die Sensorplattform auf dem TITUS-Forschungsboot
Nutzen der Daten für das Training von KI-Modellen
Die Daten werden auf zahlreichen Mess- und Testfahrten auf der Spree-Oder-Wasserstraße (SOW) und auf dem Elbe-Lübeck-Kanal (ELK) erhoben und aufbereitet. Es wird angestrebt, die typischen Boots- und Schiffsklassen in unterschiedlichen Positionen, Licht- und Witterungsverhältnissen sowie den Jahreszeiten zu erheben. Neben den Bilddaten werden auch synchronisierte Lidar-, Radar- und Sonar-Daten erhoben, die eine bessere Auskunft über Position, Dimension und Ausrichtung der zu erkennenden Objekte erlauben, insbesondere auch bei schwierigen Bedingungen (schlechte Wetter- und Lichtverhältnisse, schwieriger Verlauf der Fahrrinne).
Mit den aufbereiteten Daten können KI-Modelle zur Detektion, zur Klassifikation und zum Tracken von mobilen und temporären Objekten auf dem und im Wasser entsprechend trainiert werden. Außerdem wollen wir erforschen, inwiefern die Daten mit denen anderer verfügbarer Datenquellen (AIS, ELWIS, Pegel) fusioniert werden können.
Zielstellung
Ziel des Projektes ist es zum einen, die erfassten Daten über eine offene Plattform als Live-Map bereitzustellen. Außerdem wollen wir die Voraussetzung für ein Assistenzsystem, welches mögliche Kollisionen erkennen und vermeiden soll, schaffen. Damit soll ein weiterer wichtiger Schritt in Richtung autonome Binnenschifffahrt gegangen werden.