Dem Spiel immer einen Schritt voraus
Digitale Sensoren wie Tag- und Nachtkameras sind für die Sicherheitskräfte und das Militär von heute unverzichtbar. Sie ermöglichen ein Situationsbewusstsein und die Erkennung von Bedrohungen auf größere Entfernungen, selbst bei schlechten Sichtverhältnissen wie schlechtem Wetter oder in der Nacht. In diesem Artikel sehen wir uns an, wie die Experten von HENSOLDT diese Sensortechnologien weiterentwickeln und Bereiche wie künstliche Intelligenz und Deep-Learning-Algorithmen nutzen, um dem Spiel immer einen Schritt voraus zu sein.
Hintergrund
In den letzten Jahrzehnten haben fortschrittliche digitale Sensoren - zum Beispiel elektro-optische Infrarotkameras (EO/IR) - die Arbeitsweise von Sicherheits- und Militärpersonal drastisch verändert. Diese Technologien ermöglichen verschiedene Einsätze auf größere Entfernungen und sogar bei schlechter Sicht, insbesondere in der Nacht, wenn die Sicht und das Situationsbewusstsein oft stark beeinträchtigt sind.
Westliche Streitkräfte bezeichnen dies als "Herrschaft über die Nacht", was bedeutet, dass Sensoren und Soldaten Bedrohungen schneller und effektiver erkennen und somit Maßnahmen ergreifen können, bevor der Feind zuschlägt.
Dies hat positive Auswirkungen auf den Schutz der Soldaten an der Front.
Aber auch der Gegner hat diese Vorteile erkannt und setzt nun fortschrittliche Tag- und Nachtsensoren ein, die sich auf die Art und Weise auswirken könnten, wie westliche Streitkräfte auf dem künftigen Schlachtfeld operieren.
Wie können befreundete Streitkräfte in diesem neuen und potenziell gefährlicheren Umfeld ihren Vorsprung im Bereich der Sensortechnologie aufrechterhalten?
Sensoren werden nicht nur sehen, sondern auch verstehen
In Zukunft werden die HENSOLDT-Sensoren durch die Einführung fortschrittlicher eingebetteter Systeme, die ein hohes Maß an künstlicher Intelligenz (KI) beinhalten, weiter verbessert werden. Sensorsysteme sind traditionell auf einen Computerprozessor in der Nähe des Sensors oder mehrere Server in einem Hauptquartier für die Datenverarbeitung und -auswertung angewiesen.
Dies wird auf den bestehenden "intelligenten" Funktionen der HENSOLDT-Sensorsysteme aufbauen, einschließlich automatischer Objekterkennung, Zielverfolgung und Anzeige bewegter Ziele.

Bei Kameras wird dies als eingebettete Computer Vision bezeichnet, die "Intelligenz direkt in die Kamera" bringt und Probleme wie Latenzzeiten reduziert, erklärt Dr. Michael Teutsch, Staff Scientist bei HENSOLDT Optronics. "Es ist besser, wenn man die Datenverarbeitung näher an der Kamera durchführt, denn größere Entfernungen können das Risiko von Signalverlusten erhöhen oder den Bedarf an Datenkompression steigern. In beiden Fällen wird die Qualität der Daten beeinträchtigt.
Die Ingenieure des Unternehmens erforschen nun, wie Computer Vision - unter Verwendung von Deep-Learning-Algorithmen - auf Sensorebene eingesetzt werden kann, um Bereiche wie die Erkennung und Klassifizierung von Bedrohungen zu verbessern. In den Sensor selbst eingebettete Deep-Learning-Algorithmen werden es den Geräten nicht nur ermöglichen, die Umgebung zu sehen, sondern sie auch zu verstehen.
Von der Konsumgüterindustrie lernen
Diese neue Ära der Computer Vision wird durch die Miniaturisierung der Elektronik und eine neue Generation von Technologien wie Field Programmable Gate Arrays (FPGA) und die neuesten digitalen Signalprozessoren (DSP) ermöglicht. Mehrere Branchen - darunter die Medizin-, Energie-, Automobil- und Handelsbranche - nutzen bereits die intelligente Verarbeitung eingebetteter Geräte (anstatt die Daten an einen Computer oder Server zu senden), um Prozesse zu beschleunigen und Bereiche wie die Fehlererkennung zu verbessern.
"Die Konsumgüterindustrie ist heute so leistungsfähig und steckt so viel Mühe in solche Technologien, dass wir in der Militärindustrie davon profitieren können", erklärt Teutsch.
Insbesondere nutzt HENSOLDT die enormen Innovationen in der Automobilbranche und die Entwicklung selbstfahrender Autos. Um sich in den komplexen Umgebungen, in denen sie fahren, sicher zurechtzufinden, benötigen selbstfahrende Autos Sensoren, die ein tiefes Verständnis für die Dinge um sie herum liefern. Diese Sensoren müssen eine niedrige Latenzzeit haben, damit Entscheidungen in Sekundenbruchteilen getroffen werden können.
Eine beliebte Technik für selbstfahrende Autos ist die semantische Segmentierung, bei der jedes Pixel eines Bildes mit einem Klassenetikett (Person, Objekt, Auto usw.) verknüpft wird. Diese Technik wurde durch die Entwicklung von Deep-Learning-Algorithmen erheblich verbessert.
"Damit wissen wir für jedes Pixel im Bild, um welche 'Klasse' es sich handeln könnte. Es könnte sich beispielsweise um Vegetation, Bäume, Fahrzeuge, Menschen oder Gebäude handeln, und das gibt uns bereits die Möglichkeit, zwischen relevanten und irrelevanten Szeneninhalten, dem Vorhandensein von Objekten oder Objektbewegungen zu unterscheiden", sagt Teutsch.
"KI wird uns helfen, Informationen für die Entscheidungsfindung abzuleiten. Stellen Sie sich vor, Sie sitzen in einem Kampfpanzer und es gibt ein System, das die Umgebung überwacht, es wird viele Bewegungen und viele Objekte in der Welt erkennen, und jetzt gibt es die Möglichkeit, diese Informationen so zu filtern, dass der Bediener nur dann einen Alarm erhält, wenn eine echte Bedrohung vorliegt."
Dr. Michael TeutschWissenschaftlicher Mitarbeiter
Dies wird sich noch weiter verbessern, wenn Kameras mit höheren Megapixelsensoren ausgestattet werden und die Auflösung in die Höhe schießt, was letztendlich zu einer genaueren Objekterkennung und -identifizierung sowie zu einer größeren Abdeckung der Umgebung führt.
Höher auflösende Systeme bringen jedoch ihre eigenen Herausforderungen mit sich, z. B. eine größere Datenmenge und die Frage, wie diese in Echtzeit und ohne Verzögerung verarbeitet werden kann, um schnelle Entscheidungen zu treffen.
Wenn diese Herausforderungen gemeistert sind, werden die daraus resultierenden Sensorsysteme nicht nur das menschliche Auge übertreffen, sondern auch das menschliche Gehirn in die Lage versetzen, die Umgebung zu erfassen und zu verstehen.
Intelligente Analyse und menschliche Entscheidungsfindung
HENSOLST-Sensoren werden in der Lage sein, ein weites Gebiet zu überwachen und Anomalien in der Umgebung, einschließlich des Verhaltens von Objekten, schnell zu erkennen oder sogar vorherzusagen, selbst in überfüllten und verkehrsreichen Gebieten wie Städten. Die Sensoren werden in der Lage sein, zwischen einer Person, die ihrer täglichen Routine nachgeht, und einer Person zu unterscheiden, die sich verdächtig verhält, sowie zwischen einer Person, die eine Waffe in der Hand hält, und einer Person, die eine Tasche trägt.
Diese Art von Sensoren könnte schließlich ihren Weg auf die europäischen Entwicklungsplattformen des Main Ground Combat System (MGCS) oder des Future Combat Air System (FCAS) finden und ihnen einen erheblichen Vorteil gegenüber potenziellen Gegnern verschaffen.
Der Mensch ist nach wie vor ein wesentlicher Bestandteil des Entscheidungsprozesses und wird dies auch noch viele Jahre lang bleiben, insbesondere wenn Waffensysteme eingesetzt werden müssen. "Wir wollen den Menschen nicht gänzlich abschaffen, denn er ist wichtig für die Entscheidungsfindung", sagt Teutsch. "Was wir wollen, ist, den Prozess der Entscheidungsfindung so weit wie möglich zu erleichtern, also nicht nur mit Algorithmen, die Informationen aus der Umwelt ableiten, sondern auch mit Mensch-Maschine-Schnittstellen, die nur die relevanten Informationen anzeigen."