Ostfalia entwickelt selbstlernendes Transportsystem

Intelligente Systeme für Energie und Mobilität

An der Fakultät Fahrzeugtechnik der Ostfalia Hochschule für angewandte Wissenschaften beschäftigt sich ein Projektteam unter der Leitung der Professoren Dr. Harald Bachem und Dr. Bernd Lichte mit der Entwicklung eines selbstlernenden Transportsystems. Die Erkenntnisse aus diesem und anderen Forschungsprojekten finden unmittelbar Einzug in die Lehrveranstaltungen der beiden oben genannten Professoren, sodass Studierende der Fahrzeugtechnik eine praxis- und forschungsnahe Ausbildung auf den Gebieten der aktiven und passiven Fahrzeugsicherheit sowie der Regelungstechnik erhalten. Auf Basis dieser und weiterer Forschungsprojekte ist das Institut für Fahrzeugbau Wolfsburg (IFBW) in den Bereichen der Robotik, Sensorik und fahrerlosen Transportfahrzeuge (FTF) als Kompetenzstandort der Initiative „I4.0-Testumgebungen für KMU (I4KMU)“ gelistet, welche vom Bundesministerium für Bildung und Forschung gefördert wurde.

Im Projekt „Selbstlernendes Transportsystem (SeLeTraSys)“ arbeitet das Team an hochautomatisierten Transportfahrzeugen, die ihre Routenplanung ohne physische Leitliniensysteme durchführen können. Vergleichbare Systeme arbeiten derzeit auf der Basis von reflektierenden, auf dem Boden aufgeklebten, Linienführungen oder anhand von induktiven Leiterbahnen. Einsatz finden Systeme dieser Art beispielsweise in Logistik- und Produktionsumgebungen. Die Koordination der miteinander interagierenden Transportfahrzeuge erfolgt üblicherweise über eine zentrale Steuereinheit, welche Kollisionen der Fahrzeuge vorbeugt.

„Der Impuls, der zu der Bearbeitung dieses Projektes führte, ist der finanzielle und arbeitstechnische Aufwand bei der Umstrukturierung des Einsatzbereichs eines solchen Systems. Wird beispielsweise die Produktionsumgebung umgestellt, so müssen auch die Linienführungen entsprechend den neuen Gegebenheiten angepasst werden. Aus diesem Grund wird in dem oben genannten Projekt die Auslegung eines flexibleren Systems untersucht, welches unabhängig von solch externen Einflüssen kontinuierlich operieren kann“, berichtet Ingenieur Christoph Rohmann, Wissenschaftlicher Mitarbeiter am IFBW und Student im Masterstudiengang Fahrzeugsystemtechnologien.

Gefördert wird das Projekt mit rund 296.000 Euro vom Europäischen Fonds für regionale Entwicklung (EFRE) und erfolgt in enger Zusammenarbeit mit der Götting KG. „Mit diesem industriellen Projektpartner haben wir ein Unternehmen an unserer Seite, das bereits langjährige Erfahrung im Umgang mit hochautomatisierten Transportfahrzeugen hat. Neben der Entwicklung eigener Sensortechnologien hat sich das Unternehmen auf den Bereich der Transportsysteme mit fahrerlosen Seriennutzfahrzeugen im Außenbereich spezialisiert“, berichtet die Projektleitung. Der Projektstart fand im August 2018 statt. Mit einer Laufzeit von drei Jahren soll der geplante Projektabschluss im Juli 2021 sein.

Zwei Sensoren sehen mehr als einer

Als Basis für das Projekt SeLeTraSys hat die Götting KG ein Exemplar ihrer kleinen automatischen Transporteinheiten (KATE) zur Verfügung gestellt. Die KATE wird bereits serienmäßig in Produktionsumgebungen verwendet und basiert auf dem vorher beschriebenen Konzept der physischen Linienführungen mit zentralem Leitsystem. Das serienmäßige Transportsystem dient als Basis und wurde im Rahmen des bisherigen Projektverlaufs mit weiteren Komponenten, insbesondere mit Sensorik zur maschinellen Wahrnehmung, erweitert.

Um sich von den physischen Leitsystemen zu lösen, wird bordeigene Sensorik verwendet. Diese besteht aus einem Lidar-Sensor und einer Kamera. Als Kamera dient eine monochromatische Kamera der Firma IDS-Imaging. Da im Rahmen der Projektanforderungen keine Differenzierung verschiedener Farbmuster erforderlich ist, ist ein auf Graustufen basierter Sensor in diesem Fall die bessere Wahl, da die Datenmenge deutlich geringer und somit  die Auswertung effizienter ist. Als Lidar-Sensor fungiert ein VLP-16 „Puck“ der Firma Velodyne. Auf Basis von 16 zweidimensionalen Ebenen wird ein sogenanntes 2.5D-Abbild der Umgebung aufgenommen. Der Sensor bietet einen horizontalen Öffnungswinkel von 360° bei einer maximalen Distanz von 100 Meter. Er ist somit auch für weitläufige Anwendungsbereiche geeignet.

Die Anbindung an das Transportfahrzeug erfolgt über eine Struktur, welche sich über Feststellhebel in der Längs- und Hochachse flexibel verschieben lässt. Auf diese Art und Weise können verschiedene Sensorpositionen untersucht werden, um auch experimentell eine optimale Ausrichtung für etwaige Serienanwendungen zu ermitteln (vgl. Abbildung 1).

Prototyp Transportsystem

Abbildung 1: Prototyp des Transportfahrzeugs

Die Synchronisierung der einzelnen Datenpakete erfolgt mittels eines leistungsstarken dedizierten Industrierechners. Dieser ist fest auf dem Transportfahrzeug verbaut und verarbeitet die Daten des Lidar-Sensors, der Kamera sowie der Odometrie des Fahrzeugs. Eine zentrale Datenverarbeitung ist notwendig, um u. a. entsprechende Lokalisierungs- und Wegfindungsalgorithmen anzuwenden, welche Daten aus mehreren dieser Quellen beziehen. Die Spannungsversorgung wird mittels zweier Blei-Akkumulatoren realisiert, welche mithilfe eines Gleichrichters verschiedene Spannungspotentiale bedienen können. Daraus resultiert eine autarke Spannungsversorgung.

Die aufgezeichneten Daten werden kabellos an eine zentrale Steuerungseinheit übertragen. In dieser werden anschließend erkannte Objekte in eine digitale Karte überführt. Darüber hinaus werden Bereiche mit einer hohen Personendichte als Sperrzonen vermerkt, damit die Transportfahrzeuge diese Bereiche grundsätzlich meiden. Das Ziel ist es, auf diesem Wege Daten von mehreren Transportfahrzeugen zu sammeln und so eine Karte zu erstellen, die das Einsatzgebiet vollumfänglich abdeckt. Auf diese Weise lassen sich beispielsweise temporäre Hindernisse erfassen und die Informationen darüber für alle Transportfahrzeuge zur Verfügung stellen. Auf Basis dieser Karte wird die Wegfindung der einzelnen Transportfahrzeuge geplant und koordiniert. Es entsteht eine Schwarmintelligenz, welche auf Basis der stetigen Aktualisierung der Karte arbeitet und somit auf dynamische Situationen reagieren kann.

Für die Versuchsdurchführung zur Validierung und Erprobung des Systems wurde ein eigens dafür ausgelegter Testraum eingerichtet, in dem weitestgehend definierte Lichtverhältnisse zur Gewährleistung reproduzierbarer Ergebnisse eingestellt werden können. Der Versuchsaufbau wurde so konzipiert, dass zunächst Testfälle wie Slalomfahrten oder Kreuzungsszenarien untersucht werden können.

Die Entwicklungsumgebung

Als Entwicklungsumgebung fiel die Entscheidung auf das Robot Operating System (ROS). ROS ist ein Framework, welches für die Programmierung von Robotern verwendet wird. Es beinhaltet eine Bibliothek von erprobten Funktionen, die verschiedenste Sensortypen und Anwendungsszenarien unterstützen. Die in diesem Projekt verwendeten Funktionen werden hinsichtlich der im Vorfeld definierten Systemanforderungen adaptiert und appliziert. Ein Vorteil der Verwendung dieses Systems ist, dass durch den hohen Reifegrad vorhandener Bausteine von Algorithmen eine Fokussierung auf die eigentliche Anwendung möglich ist.

Für den Lidar-Sensor wurden zunächst verschiedene Funktionen hinsichtlich der Übertragbarkeit auf das vorliegende Projekt untersucht. Dazu gehörten die Pakete „Gmapping“ und „Google Cartographer“, die sowohl die Umgebung kartographieren als auch simultan die eigene Position im Raum schätzen. Die Untersuchung erfolgte anfangs rein simulativ- und wurde anschließend auf die Zielhardware portiert und erprobt.  In der Abbildung 0.2 ist eine exemplarisch generierte Karte zu sehen, welche mithilfe des Laserscanners aufgenommen und anschließend in einer Simulationsumgebung importiert wurde. Die schwarz dargestellten Konturen zeigen dabei erkannte Objekte beziehungsweise Strukturen. Mithilfe eines simulierten Roboters [Abbildung 0.2, (2)] wurden in der Simulationsumgebung Navigationsalgorithmen erprobt. Die Visualisierung der aktuellen Ausrichtung des Roboters erfolgte über die rot dargestellten Vektoren. Zur Veranschaulichung des noch umzusetzenden Navigationsverfahrens wurde nachträglich ein Hindernis [Abbildung 0.2, (3)] eingefügt. Das intelligente System muss sich auf Basis der Kartendaten und dem vorgegebenen Zielpunkt [Abbildung 0.2, (4)] die optimale Route suchen [Abbildung 0.2, grüner Pfeil].

Startposition_Roboter

 

 

 

Abbildung 2 : Exemplarisch generierte Karte

Als Ausgangslage für die Programmierung der Kamera dienen zunächst Funktionen aus der Open Source Computer Vision Library (OpenCV). Ein weiteres in Frage kommendes Werkzeug ist ein ROS-Paket namens ORB-SLAM. Dies ist eine Bibliothek, welche analog zu den genannten Lidar-Paketen die eigene Position schätzt und die Umgebung kartographiert. Das Paket ist speziell auf Anwendungen mit Mono- und Stereokameras ausgelegt.

Die Daten der beiden Sensortypen werden anschließend fusioniert und miteinander verglichen, um eine Aussage über dessen Synergie treffen zu können.

Was die Zukunft bringt

Bis zum Projektabschluss soll eine prototypische Funktionalität für die Automatisierung von Transportsystemschwärmen umgesetzt werden Dies kann und muss dann anschließend bis zur Serienreife z. B. unter der gesetzlichen und durch Richtlinien und Normen vorgeschriebenen Rahmenbedingungen betrachtet werden. Ein Großteil dieser Dokumente beschränkt sich derzeit noch auf Systeme mit physischen Leitlinien. Es  bedarf daher neuer bzw. angepasster Richtlinien, um auch in Zukunft weiterhin diesen Entwicklungssektor abzudecken und neue Perspektiven zu schaffen.

Kontakt:

Christoph Rohmann B. Eng.
Ostfalia Hochschule für angewandte Wissenschaften
Institut für Fahrzeugbau Wolfsburg

Telefon: 05361 8922 21340, E-Mail: ch.rohmann@ostfalia.de

Prof. Dr.-Ing. Harald Bachem
Ostfalia Hochschule für angewandte Wissenschaften
Institut für Fahrzeugbau Wolfsburg

Telefon: 05361 8922 21240, E-Mail: h.bachem@ostfalia.de
https://www.ostfalia.de/f/lff/forschung/

Prof. Dr.-Ing. Bernd Lichte
Ostfalia Hochschule für angewandte Wissenschaften
Institut für Fahrzeugsystem- und Servicetechnologien
Telefon: 05361 8922 21520, E-Mail: b.lichte@ostfalia.de

Ro/Me 07.05.2020
Bildmaterial: Ostfalia

nach oben
Drucken