Anzeige

Sensor Fusion und Tracking Toolbox

Erweiterungen des Matlab-Workflows helfen Ingenieuren, Systeme zu entwerfen, zu simulieren und zu analysieren, die Daten von mehreren Sensoren zusammenführen.

 (Bild: MathWorks GmbH)

(Bild: MathWorks GmbH)

MathWorks stellt die Sensor Fusion and Tracking Toolbox vor, die mit dem Release 2018b verfügbar ist. Die neue Toolbox bietet Ingenieuren Algorithmen und Tools, mit denen sie die Position, die Ausrichtung und die Situationswahrnehmung bestimmen und aufrechterhalten können. Diese Funktionen sind relevant für autonome Systeme in Luft-/Raumfahrt, Automobilen, Unterhaltungselektronik und weiteren Branchen. Die Toolbox erweitert auf Matlab basierende Workflows und erleichtert Ingenieuren so die Entwicklung präziser Wahrnehmungsalgorithmen für autonome Systeme. Ingenieure, die Entwicklungsarbeit für die Wahrnehmungsphase autonomer Systeme leisten, müssen Daten von verschiedenen Sensoren zusammenführen, damit diese Systeme die Position von Objekten in ihrer Umgebung schätzen können. Jetzt können Forscher und Entwickler Lokalisierungs- und Tracking-Algorithmen zusammen mit Referenzbeispielen in der Toolbox als Ausgangspunkt verwenden. Damit lassen sich Komponenten von Überwachungs-, Navigations-, und autonomen Systemen an Land, zu Wasser und in der Luft implementieren. Die Toolbox bietet eine flexible und wiederverwendbare Umgebung, die von mehreren Entwicklern gemeinsam genutzt werden kann. Sie bietet Funktionen für die Simulation von Sensordetektionen, die Durchführung von Lokalisierungen, das Testen von Sensorfusionsarchitekturen und die Bewertung von Tracking-Ergebnissen. „Algorithmenentwickler, die an Tracking- und Navigationssystemen arbeiten, verwenden häufig interne Tools, deren Pflege und Wiederverwendung schwierig sein kann“, erklärt Paul Barnard, Marketing Director – Design Automation, MathWorks. „Mit der Sensor Fusion and Tracking Toolbox können Ingenieure mehrere Entwürfe untersuchen und ‚Was-wäre-wenn-Analysen‘ durchführen, ohne benutzerdefinierte Bibliotheken zu schreiben. Außerdem können sie Fusionsarchitekturen mithilfe von Software simulieren, die sie Teams und Organisationen zur Verfügung stellen können.“

Die Sensor Fusion und Tracking Toolbox umfasst:

  • Algorithmen und Tools zum Entwerfen, Simulieren und Analysieren von Systemen, die Daten von mehreren Sensoren zusammenführen, um die Position, die Ausrichtung und die Situationswahrnehmung aufrechtzuerhalten
  • Referenzbeispiele als Startpunkt für Überwachungs-, Navigations- und autonome Systeme an Land, zu Wasser und in der Luft
  • Multi-Objekt-Tracker, Sensorfusionsfilter, Bewegungs- und Sensormodelle und Datenzuordnungsalgorithmen, mit denen Fusionsarchitekturen mithilfe realer und synthetischer Daten bewertet werden können
  • Generierungstools für Szenarien und Bewegungsbahnen
  • Generierung synthetischer Daten für aktive und passive Sensoren, einschließlich HF-, akustischer, EO/IR- und GPS/IMU-Sensoren
  • Standard-Benchmarks, Metriken und animierte grafische Darstellungen für Systemgenauigkeit und -leistung
  • Bereitstellungsoptionen für die Beschleunigung der Simulation oder die Desktop-Prototypenentwicklung mit C-Code-Generierung

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Markforscher rechnen mit einem Anstieg des weltweiten Datenvolumens auf 175 Zettabyte im Jahr 2025. Über die Hälfte soll dann von vernetzten Applikationen im IoT und der Industrie 4.0 ausgehen. Zusammen mit Edge- und Fog-Technologien sorgen Computer-on-Module (COM), Single-Board-Computer (SBC) und entsprechende Software dafür, die Rechenleistung effizient, schnell und flexibel zur Verfügung zu stellen.‣ weiterlesen

Sei es der Kühlschrank, der meldet, wenn die Milch alle ist, oder der Thermostat, der Nutzungsstatistiken aufs Smartphone sendet: Verschiedenste Produkte, die traditionell nicht über eine Netzwerkverbindung verfügten, werden mittlerweile damit ausgestattet.‣ weiterlesen

Anzeige

Warum MQTT im IIoT so erfolgreich ist und was man vor dem Einsatz des Übertragungsprotokolls wissen sollte, erläutert der folgende Beitrag.‣ weiterlesen

Vision-App-basierte Industriekameras der künftigen IDS NXT Familien Rio und Rome sind bereits KI-Ready. Eine von IDS entwickelte KI-Vision-App macht sie zur energieeffizienten, aber dennoch leistungsstarken Inferenzkamera mit integriertem KI-Beschleuniger. Mit vorhandenen neuronalen Netzen können damit vielfältige, KI-basierte Bildverarbeitungsaufgaben in kurzer Zeit realisiert werden.‣ weiterlesen

Fix und fertig: Fest an Maschinen installierte Panel-PCs waren jahrzehntelang der Standard für Maschinensteuerung und -wartung als HMI. Zunehmend experimentieren Unternehmen nun erfolgreich mit einem neuen Konzept.‣ weiterlesen

KOE (Kaohsiung Opto Electronics), LCD-Hersteller für die Industrie, hat die Einführung eines neuen 10,1" großen Rugged+ TFT-Displaymoduls bekanntgegeben.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige