NewsBundeswehrRüstung

KI in der militärischen Welt – Chancen und Risiken

Es vergeht kaum ein Tag, an dem wir nicht eine weitere Nachricht über Anwendung und Auswirkungen Künstlicher Intelligenz (KI) lesen. KI gewinnt in allen unseren Lebensbereichen eine stetig wachsende bedeutende Rolle. Gleichzeitig wächst aber auch die Furcht in unserer Gesellschaft, dass wir durch den Einsatz von KI mehr und mehr die Kontrolle über unser tägliches Leben verlieren, dass wir beeinflussbar werden und dass gegebenenfalls KI uns in Entscheidungen hineindrängt, die wir ohne deren Einsatz aus ethischen Gesichtspunkten so nicht getroffen hätten.

KI in der AVIONIK - heute noch unvorstellbar, ggf. in ferner Zukunft ein Mittel zur sicheren Flugführung. Foto: Bundeswehr / Jana Neumann
KI in der AVIONIK - heute noch unvorstellbar, ggf. in ferner Zukunft ein Mittel zur sicheren Flugführung.
Foto: Bundeswehr / Jana Neumann

Auch im militärischen Bereich – z. B. in der Entwicklung von Waffensystemen und Munition – kommt dem Einsatz von KI eine kontinuierlich wachsende Bedeutung zu. So bringt zum Beispiel der Bedarf, in einer ausufernden Informationsflut relevante Information von irrelevanter Information zu unterscheiden, den Menschen an die Grenzen seiner Leistungs- und Handlungsfähigkeit und zwingt dazu, automatisierte Abläufe wo immer möglich anstelle von humaner Bearbeitung vorzusehen.

Truppen am Boden, Drohnen in der Luft und viele andere Sensoren auf dem Gefechtsfeld erzeugen kontinuierliche Datenströme, diese werden in vernetzten Systemen verteilt und bedürfen einer systematischen Auswertung – das Fachwort heißt„Datendusion“,umdierelevantenInformationenzuextrahieren, die Grundlage für Entscheidungen zu legen und so den Gefechtserfolg sicherzustellen. Nur durch Nutzung automatisierter Prozesse können in diesem Umfeld die Bekämpfung von Unbeteiligten und damit Kollateralschäden vermieden werden.

Gerade die genannte Flut von Informationen führt zu einer Überlastung der menschlichen Fähigkeiten, Informationen zu sichten und in geeigneter Weise zu kombinieren. Hier kommt die KI ins Spiel. Sie kann mit ihren Möglichkeiten einen wichtigen Beitrag leisten und bei einer Sichtung der Daten und deren Vorauswertung unterstützen.

Anwendungsmöglichkeiten für KI

Eigentlich kann der Einsatz von KI bei vergleichsweise einfachen Aufgaben beginnen. Zum Beispiel Logistik, Instandsetzung oder Personalmanagement. Gerade im Bereich logistischer Aufgaben, wie Abschätzung von Verbräuchen (Lernen aufgrund von Erfahrungen der Vergangenheit), Vorausplanung von Versorgungspunkten, intelligente Planung des Nachschubs oder Prognostik von Instandsetzungsfristen, können Algorithmen der KI hilfreiche Unterstützung leisten. Wichtig zu beachten ist, dass sie nicht den Menschen mit seinen kognitiven und kombinatorischen Fähigkeiten ersetzen sollen, sondern aufgrund ihrer Möglichkeiten helfen können, Entscheidungen vorzubereiten.

Diesen „Faden kann man weiterspinnen“. Im Bereich des Personalmanagements könnten KI-Algorithmen helfen, aus einer Vielzahl möglicher Personen den oder die qualifizierteste/n Bewerber/in für eine bestimmte Aufgabe herauszufiltern.

Andererseits entstehen gerade im militärischen Bereich durch Einsatz von KI-Optionen, die die Hochautomation erfordern, wobei unverantwortetes und damit unkontrolliert „maschinengesteuertes“ Engagement zu vermeiden ist. Der Krieg in der Ukraine zeigt sehr deutlich auf, dass sowohl Russland als auch die Ukraine Software-Algorithmen entwickeln und einsetzen, die Drohnen dazu befähigen, autonom in ein Zielgebiet zu navigieren und Ziele autonom zu bekämpfen. Die dafür benutzte Technologie beruht in vielen Fällen auf KI, ist klein, kostengünstig und auf dem zivilen Markt erhältlich. Ein Missbrauch ist damit nicht auszuschließen.

Auch bei relativ einfachen Aufgaben z.B. in der Logistik (hier Verladung für die Übung QUADRIGA 2024) kann Künstliche Intelligenz unterstützen. Foto: Bundeswehr / Susanne Hähnel
Auch bei relativ einfachen Aufgaben z.B. in der Logistik (hier Verladung für die Übung QUADRIGA 2024) kann Künstliche Intelligenz unterstützen.
Foto: Bundeswehr / Susanne Hähnel

Allerdings liegen zwischen den einfachen Anwendungen von KI im Bereich der Logistik und der in Munition Welten an Technologien, Innovationen und Versuchen. In der Regel entwickeln sich Technologien in diesem Bereich nicht disruptiv, sondern eher in kleinen Schritten im Sinne einer Technologietransformation. Die Kombination von Neuem und Altem ist dabei oft das Mittel der Wahl.

So wurde zum Beispiel im Rahmen des cpmEVENTs „Ground Based Air Defence“ im April 2024 der Hinweis gegeben, dass man aus den Ereignissen in der Ukraine dahingehend lernen könne, dass gerade die Kombination und Vernetzung einfacher Systeme (Klein-Drohnen oder andere wenig intelligente Waffensysteme) mit hoch entwickelten und komplexen Command and Control-Systemen zu einem bedeutenden und schnellen Fähigkeitsaufwuchs führen kann. In gleicher Weise ist vorstellbar, dass eine Vernetzung vorhandener ziviler und militärischer Sensoren unter gleichzeitiger geeigneter Kombination der Informationen ebenfalls zu einem schnellen und wirkungsvollen Fähigkeitsaufwuchs führen kann. Beides sind Bereiche, in denen KI einen wichtigen Beitrag leisten kann.

Mit ihren Möglichkeiten ist KI in der Lage, Voraussetzungen zu schaffen für die schnelle und verlässliche Bereitstellung von Informationen. Sie unterstützt bei der Korrelation von Informationen unterschiedlicher Quellen, Extraktion von Signaleigenschaften aus dem Spektrum und Vergleich mit vorhandenen Inhalten von Datenbanken, Vergleich und Korrelation von Bildern, die situationsbedingt gewonnen und im Vergleich mit vorhandenen Informationen Veränderungen zeigen, oder sie gibt die Sicherheit dafür, dass ein autonom fliegendes Waffensystem auf dem „richtigen“ Weg ist.

Bereits in den 90er-Jahren gab es Forschungsaktivitäten des BMVg, im Bereich der Unterwasserdetektion Kontakte aus dem Meeresrauschen durch Einsatz Neuronaler Netze – eine KI-Anwendungsform – zu extrahieren. Gerade in Minenjagdanwendungen ist es häufig schwierig, Minen gegenüber der Rückstreuung des Meeresbodens (Sea-Clutter) mit abbildenden akustischen Methoden zu entdecken und nach der Entdeckung eindeutig zu klassifizieren. Entsprechende Untersuchungen zur Nutzung des rückgestreuten Frequenzspektrums waren damals aufgrund der Unsicherheiten sowohl bei der Detektion als auch der Klassifizierung eingestellt worden.

Die Menge an Daten und die zur Verfügung stehende Computerleistung reichten nicht aus, um eindeutige Zielinformationen zu generieren. Durch die Weiterentwicklung der KI-Algorithmen und leistungsfähigere Rechner eröffnen sich hier neue Möglichkeiten, um in den aufgenommenen akustischen Daten die relevanten Ziele zu erkennen. Ähnliche Verfahren könnten dabei nicht nur in der Minenjagd zur Anwendung kommen, sondern auch bei der Ujagd erfolgreich sein.

Aufklärungs- und Zieldaten werden auch heute oft noch mit dem 6-B Bleistift markiert, können aber zukünftig mit KI einfacher und sicherer verwaltet werden. Foto: Bundeswehr / Jana Neumann©Bundeswehr/Jana Neumann
Aufklärungs- und Zieldaten werden auch heute oft noch mit dem 6-B Bleistift markiert, können aber zukünftig mit KI einfacher und sicherer verwaltet werden.
Foto: Bundeswehr / Jana Neumann

Was macht den Unterschied zwischen den Ansätzen der 90er-Jahre und den heutigen Möglichkeiten? Da sind zum einen die erwähnten deutlich höheren Rechnerleistungen, aber auch bessere und intelligentere Software-Algorithmen. Und vor allen Dingen eine deutlich größere Menge an Daten, die zum Anlernen der Netzwerke genutzt werden können – dank neuer, sehr viel hochauflösender Sensoren und schneller Datenübertragungsnetzwerke.

Worauf kommt es an?

Eigentlich kommt es beim Einsatz von KI im Bereich der Intelligence, Surveillance und Reconnaissance (ISR) nur darauf an, zu entscheiden, ob es sich bei dem aus dem Clutter (Umgebungssignal) entdeckten Signal um ein Ziel handelt, und was für ein Ziel es ggf. ist: Fahrzeug oder Panzer? Anker oder Mine? Uboot oder „schwimmender Container“? Hierauf müssen die Algorithmen trainiert werden.

Wesentlich schwieriger wird es, wenn es um das Thema „Entdeckung und Klassifizierung von menschlichen Zielobjekten“ geht. Um was für eine Person handelt es sich, die ich z. B. in meinem Nachtsichtgerät gerade entdeckt habe? Angreifer oder Terrorist? Oder vielleicht gar ein eigener Kamerad? Oder eine Zivilperson z. B. ein Kind, das mit einer Waffe spielt? Hier kommt auch der Einsatz von KI heute noch schnell an seine Grenzen. Welche Daten können genutzt werden, um ein derartiges Entscheidungssystem anzulernen? Bewegungsmuster, Konturen oder ähnliches – dies sind Fragen, die aktuell noch nicht beantwortet sind, aber für die Nutzung von KI in Waffensystemen eine entscheidende Rolle spielen.

Ein weiteres Feld, das noch sehr wenig bearbeitet ist, ist im Rahmen der Entscheidungsvorbereitung der Einsatz von KI zur Beurteilung des möglichen „gegnerischen Commanders Intent“. Vorstellbar ist hier der Einsatz von KI in der sogenannten „OODA“-Loop (Observe, Orient, Decide, Act) und dort in den unterschiedlichsten Aufgabenstellungen bis hin zum Vorschlag einer Operationsplanung. Die für derartige Aufgaben erforderlichen Daten sind auf den Gefechtsständen über die unterschiedlichsten Quellen bereitgestellt und können für die Entscheidungsfindung unter Nutzung von KI verwendet werden.

Ein aktuelles Vorhaben – bei denen der Einsatz von KI vorgesehen ist – ist das Deutsch-Französische Gemeinschaftsprojekt FCAS (Future Combat Air System). Im Bereich der Navigation der Remote Carrier, der durch sie erfolgenden Zielauswahl und Entscheidungsfindung wird der Einsatz von KI aktuell untersucht. Dabei auftretende Fragen sind neben der technischen Realisierung aber auch die ethischen Aspekte des Einsatzes von KI, die in einer interdisziplinären und interministeriellen Arbeitsgruppe untersucht werden. Was ist, wenn die „Maschine“ einen Fehler macht? Wenn sie dies tun würde, hätte das voraussichtlich gravierende Auswirkungen auf dem Gefechtsfeld – z. B. durch Kollateralschäden, die man eigentlich vermeiden wollte.

Daher kommt es für zukünftige Arbeiten auch darauf an, die Fehlerrate von KI möglichst bis auf „null“ zu reduzieren. Der Mensch als Sicherheitsfaktor muss – und das ist zumindest im nationalen Raum noch die Haltung – in der Kette weiter den Platz der letzten Entscheidung behalten. Dies schließt Fehler nie aus, führt aber zur Sicherheit, dass nicht eine Maschine das „letzte Wort“ behält.

Abschliessend vielleicht das folgende Fazit:

KI-Systeme können in militärischen Anwendungen gerade in Situationen des „fog of war“ eine bedeutende Rolle spielen. Sie tragen einen wesentlichen Anteil in der Entscheidungsvorbereitung durch die Verarbeitung komplexer, oftmals widersprüchlicher Daten und können damit dem Führer vor Ort eine besondere Hilfe sein. Der Faktor Mensch als Glied in der Entscheidungskette darf allerdings aus ethischen Gründen nicht aus seiner Verantwortung für die abschließende Entscheidung herausgenommen werden.

Hinsichtlich der im europäischen Rahmen anzuwendenden Rechtslage hat der EU-Gesetzgeber den sogenannten AI Act verabschiedet und am 12. Juli 2024 im Amtsblatt der EU veröffentlicht (Volltext). Der AI Act tritt am 1. August 2024 in Kraft, die meisten Regeln sind nach zwei Jahren anwendbar, einige schon früher. Der AI Act verfolgt einen risikobasierten Ansatz.

Das Europäische Parlament will vor allem sicherstellen, dass die in der EU eingesetzten KI-Systeme sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. KI-Systeme sollten von Menschen und nicht von der Automatisierung überwacht werden, um schädliche Ergebnisse zu verhindern.

Mit WhatsApp immer auf dem neuesten Stand bleiben!

Abonnieren Sie unseren WhatsApp-Kanal, um die Neuigkeiten direkt auf Ihr Handy zu erhalten. Einfach den QR-Code auf Ihrem Smartphone einscannen oder – sollten Sie hier bereits mit Ihrem Mobile lesen – diesem Link folgen:

Beitrag teilen

Anzeige
Enforce Tac

Das könnte Sie auch interessieren

Anzeige

Verwendete Schlagwörter

cpmFORUMKIKünstliche IntelligenzRainer Krug
Index