FCASLuftwaffeNews

Künstliche Intelligenz in Waffensystemen

Das Unternehmen Helsing ist für die KI-Befähigung zum Elektronischen Kampf für den Eurofighter verantwortlich. Doch beim Thema Künstliche Intelligenz (KI) herrscht nach wie vor in Teilen der Bevölkerung und auch der Streitkräfte ein gewisses Maß an Misstrauen ob deren Zuverlässigkeit. cpm Defence Network sprach hierüber beim FCAS Summit mit Stephanie Lingemann, Programmdirektorin bei Helsing. Das Interview führte Dorothee Frank.

Stephanie Lingemann, Programmdirektorin bei Helsing, erläuterte beim FCAS Summit das Zusammenwirken von Waffensystemen mit Künstlicher Intelligenz.
Stephanie Lingemann, Programmdirektorin bei Helsing, erläuterte beim FCAS Summit das Zusammenwirken von Waffensystemen mit Künstlicher Intelligenz.
Foto: Sascha Schuermann

Wie verlässlich ist die Künstliche Intelligenz?

Lingemann: Ich würde zuerst gerne eine Definition von Künstlicher Intelligenz vornehmen. Unter Künstlicher Intelligenz verstehen wir bei Helsing, dass mithilfe von datenverarbeitenden, lernenden Methoden Algorithmen erstellt werden.

Die Nutzung von Algorithmen ist auch im Verteidigungsbereich nichts Neues, doch bislang hat der Mensch die Regeln und Zusammenhänge definiert und die Algorithmen formuliert. Der Mensch hat also den Code geschrieben oder zumindest nachgehalten. Bei Künstlicher Intelligenz kommt die Maschine mittels maschinellen Lernens zu den Ergebnissen, erkennt die Regeln und formuliert die Algorithmen.

Das Ergebnis der Künstlichen Intelligenz bleibt dabei deterministisch, was in meinen Augen auch die Voraussetzung dafür ist, dass KI überhaupt zulassbar wird. Das bedeutet, dass die KI-basierten Algorithmen mit dem gleichen Dateninput immer zu demselben Ergebnis kommen. Diese Verlässlichkeit lässt sich prüfen und zulassen.

 

Es wird also das Ergebnis geprüft, nicht der Weg zum Ergebnis?

Lingemann: Die Künstliche Intelligenz wird zum Beherrschen von komplexen Vorgängen gebraucht, insbesondere im Fall von FCAS, wo ohne KI für die Auswertung von Sensordaten, für die Missionsplanung oder den Effektoreinsatz, keine Luftüberlegenheit erreicht werden kann. Dass Menschen, wie in den Anfangszeiten der IT, wirklich Codezeile für Codezeile schreiben oder überprüfen, ist angesichts der enormen Masse und Komplexität an Code nicht durchführbar. In der Entwicklung finden ISO-Normen und Standards für beispielsweise Softwareentwicklung im sicherheitskritischen Bereich der Luftfahrt Anwendung. Darüber hinaus gehen wir, wie bei anderen Testverfahren, so vor, das auf das Ergebnis getestet wird.

Da die Anwendung von Künstlicher Intelligenz neu ist, entwickeln sich parallel entsprechende ergebnisbasierende Testverfahren. So evaluieren wir beispielsweise was passiert, wenn ich einen Teil des Datensets verändere. Ob die KI dann noch zum gleichen Ergebnis kommt. Wir brauchen also eine Kombination von den Ergebnissen verschiedener Testszenarios, damit wir sicherstellen können, dass ein KI-Algorithmus robust ist.

 

Wessen Aufgabe sind diese Tests? Macht es der Entwickler, also Helsing?

Lingemann: Aktuell besitzt dieses Feld mehrere Akteure. Neben Entwicklungsstandards spielen Vorgaben für IT- und Software-Sicherheit sowie Vorgaben zur Abnahme der KI für die Nutzung und Zertifizierung eine Rolle. Wir als Entwickler arbeiten beim Thema Überprüfung, Zulassung und Zertifizierung natürlich eng mit den Kunden und den entsprechenden Behörden zusammen und binden Evaluationstools von Dritten mit ein. Das heißt, unsere KI wird auch von Dritten und deren Teststellen – beispielsweise von IABG oder Fraunhofer – geprüft.

 

Gibt es so eine Art TÜV von KI, eine Zulassung durch das BSI oder ein Zertifikat eines Verbandes?

Lingemann: Einen speziellen KI-TÜV-Stempel gibt es aktuell noch nicht, aber auf dieser Reise befinden wir uns definitiv.  Ich bin fest davon überzeugt, dass es genau eine solche nationale, europäische oder NATO-Zertifizierung von verlässlicher und robuster KI geben wird. Aktuell wird Sicherheit über bestehende Zulassungsstandards geleistet, was möglich, aber umständlich ist. Ein passgenauer Weg wird das in Zukunft dann vereinfachen.

Man sieht an Programmen wie FCAS, dass KI in so vielen Bereichen zur Anwendung kommt, dass es sich lohnt, spezifisch darauf ausgelegte Verfahren zu entwickeln. Aber auch das ist nicht neu, dass erst die Technologie da ist und daraufhin Testverfahren staatlich vorgegeben werden, damit die Technologie nach bestimmten Regeln eingesetzt und geprüft wird. Das sehen wir im Kontext autonomes Fahren, in der Luftfahrt und nun bei der Künstlichen Intelligenz im Verteidigungssektor. Es ist in meinen Augen nur eine Frage der Zeit, bis wir den passgenauen TÜV für die KI im militärischen Bereich erhalten

Abonieren Sie unseren WhatsApp-Kanal, um die Neuigkeiten direkt auf Ihr Handy zu erhalten. Einfach den QR-Code auf Ihrem Smartphone einscannen oder – sollten Sie hier bereits mit Ihrem Mobile lesen – diesem Link folgen:

Beitrag teilen

Das könnte Sie auch interessieren

Anzeige

Verwendete Schlagwörter

FCASHelsingKampfflugzeugKIKünstliche IntelligenzLuftwaffe