Kurz gesagt:
Um sicherzustellen, dass unser Versuchsfahrzeug sich selbst zuverlässig und genau in seinem globalen Referenzrahmen lokalisieren kann, haben wir ein Geolokalisierungssystem entwickelt, das auf der Fusion von Multisensordaten mit einem erweiterten Kalman-Filter basiert. Dieses System nutzt die Daten von zwei GNSS-Antennen, einer 6-achsigen Inertialmesseinheit (IMU) und Raddrehgebern. Während der Entwicklung führten wir eine umfassende theoretische Studie durch, um die Lösung in der Simulation zu validieren, bevor sie in unser Fahrzeug integriert wurde. Diese Ergebnisse wurden auf der AgriControl-Konferenz im August 2022 veröffentlicht.
Zusammenfassung:
Dieser Beitrag befasst sich mit der Entwicklung einer Datenfusionsarchitektur für die Positions- und Lagebestimmung eines autonomen landwirtschaftlichen Fahrzeugs, die zwei RTK-GNSS und ein Inertialmesssystem (IMU) kombiniert. Die wichtigsten Algorithmusschritte werden vorgestellt, um einen generischen Ansatz für Echtzeit-Fahrzeugführungsanwendungen oder Lokalisierung mittels Datenfusion zu bieten. Wichtige Merkmale wie die Modellierung von Sensorfehlern auf der Grundlage der Allan-Varianz-Methode sowie Kompensationsphänomene im Zusammenhang mit der terrestrischen Navigation durch IMU-Mechanisierung werden vorgestellt. Es wird eine lose gekoppelte Fusionsarchitektur vorgeschlagen, die eine geringe Komplexität für die Integration von Echtzeit-Algorithmen ermöglicht. Schließlich werden Ergebnisse auf der Grundlage realer Daten eines echten Prototyps genutzt, um die Effizienz des vorgeschlagenen Algorithmus zu zeigen.