Der Aufstieg der Künstlichen Intelligenz und des Maschinellen Lernens hat einen Paradigmenwechsel in unserem Verständnis von Intelligenz herbeigeführt. Während die Debatte darüber, ob Maschinen wirklich so intelligent wie Menschen werden könnten, weitergeht, ist offensichtlich, dass die Leistungen der Maschinen die Menschen in bestimmten Aspekten übertroffen haben, insbesondere bei der Verarbeitung großer Datenmengen und der Herleitung datengetriebener Entscheidungen.
In seinem Artikel „Learning about Learning Machines“ untersucht Simon Purton, der Abteilungsleiter der Abteilung Entscheidungsunterstützung der Nato, die Unterschiede bei der Entscheidungsfindung zwischen Menschen und Maschinen. Dabei zeigt er auf, inwieweit sich diese beiden Ansätze ergänzen können. Die menschliche Entscheidungsfindung wird oft von Zeitdruck, begrenzten Informationen, kognitiven Einschränkungen und Emotionen beeinflusst.
So erklärt Purton: „Wenn Sie eine Entscheidung treffen, handeln Sie auf der Grundlage Ihrer Präferenzen und versuchen, Entscheidungen zu treffen, die Ihnen den größtmöglichen Nutzen bringen.“ Menschen verließen sich häufig auf Heuristiken oder Faustregeln, um komplexe Entscheidungen effizient zu bewältigen. Maschinen hingegen brillierten in der Verarbeitung großer Datensätze und könnten Entscheidungen auf Basis von Mustern und Informationen treffen, die möglicherweise jenseits menschlicher Kapazitäten lägen.
Zwar könnten Menschen auch aus vergangenen Entscheidungen lernen, doch die Fähigkeit von Maschinen, sich durch wiederholte Exposition gegenüber Mustern anzupassen und zu verbessern, hebe einen entscheidenden Aspekt der künstlichen Intelligenz hervor. Lernalgorithmen ermöglichten es Maschinen, in strategischen Spielen wie Schach und Go zu brillieren, wo sie Möglichkeiten erkunden und Entscheidungen treffen können, die für Menschen unkonventionell erscheinen.
Die Analyse der NATO führt im letzten Teil die Idee der „Zentauren“ ein und betont die Synergie zwischen Menschen und Maschinen. Anstatt den Wettbewerb zwischen Menschen und Maschinen als binäre Wahl zu betrachten, lege das Konzept der Zentauren nahe, dass die Integration menschlicher strategischer Führung mit der taktischen Schärfe von Computern zu überlegenen Ergebnissen führen könne. Die Zusammenarbeit von Mensch und Maschine berge das Potential die Stärken beider Seiten zu nutzen und Präzision sowie Zuverlässigkeit zu gewährleisten.
Während die Entwicklungen in der künstlichen Intelligenz voranschreiten, ist es entscheidend, die ethischen, rechtlichen und moralischen Dimensionen im Zusammenhang mit diesen Technologien zu berücksichtigen. Der Artikel ermutigt zu weiterer Erkundung dieser Themen und lädt die Leser dazu ein, sich mit den Werken von Experten wie Ray Kurzweil, Daniel Kahneman und anderen auseinanderzusetzen, um ihr Verständnis von der vielschichtigen Welt der künstlichen Intelligenz zu vertiefen. Im Kontext der NATO legt der Artikel nahe, dass die Integration von KI-Technologien in Verteidigungsstrategien entscheidend ist, um sich an das digitale Zeitalter anzupassen und die Sicherheit in einer Ära der künstlichen Intelligenz zu gewährleisten.
Aktivitäten wie TIDE Sprint (Technology Innovation for Digital Ecosystems) und Coalition Warrior Interoperability eXercise (CWIX) sind Teil der Bemühungen der NATO, die Integration von Technologien, einschließlich KI, in die militärischen Abläufe voranzutreiben. 2018 betonte etwa die damalige stellvertretende NATO-Generalsekretärin Rose Gottemoeller: „Wir wissen, dass wir die Bedrohungen von morgen nicht mit den Mitteln von heute bekämpfen können. Um uns zu verteidigen, reicht es nicht mehr aus, auf eine Karte zu schauen und zu entscheiden, wo wir unsere Truppen positionieren. Wir müssen uns im digitalen Zeitalter und im Zeitalter der künstlichen Intelligenz verteidigen.“
Dabei muss die NATO bei der Entwicklung und Implementierung von KI-Technologien nicht nur technologische Herausforderungen bewältigen. Ethik, rechtliche Aspekte und moralische Fragestellungen im Zusammenhang mit autonomer KI erfordern ebenso Aufmerksamkeit wie die technische Umsetzung. Der Einsatz von KI muss schließlich im Einklang mit den Werten und Prinzipien der Allianz erfolgen. Dies schließe auch die Notwendigkeit ein, die Mensch-Maschine-Interaktion zu gestalten und Vertrauen zwischen den beiden herzustellen. Die Idee von „Centaurs“ oder hybriden Systemen, in denen menschliche strategische Führung mit der taktischen Schärfe von Computern kombiniert wird, könnte eine zukunftsweisende Richtung für die militärische Anwendung von KI sein.
Christina Bornheim
Abonieren Sie unseren WhatsApp-Kanal, um die Neuigkeiten direkt auf Ihr Handy zu erhalten. Einfach den QR-Code auf Ihrem Smartphone einscannen oder – sollten Sie hier bereits mit Ihrem Mobile lesen – diesem Link folgen: