banner
Nachrichtenzentrum
Hochleistungsmaschinen und außergewöhnliche Meisterschaft

Mehr Battlefield-KI wird den Nebel des Krieges tödlicher machen

Jun 13, 2023

Will Knight

Das US-Militär ist nicht mehr die konkurrenzlose Streitmacht, die es einst war, aber Alexandr Wang, CEO des Startups Scale AI, sagte letzte Woche vor einem Kongressausschuss, dass es sich durch die Nutzung künstlicher Intelligenz einen neuen Vorteil verschaffen könne.

„Wir verfügen über die größte Flotte militärischer Hardware der Welt“, sagte Wang dem Unterausschuss der Streitkräfte des Repräsentantenhauses für Cyber, Informationstechnologie und Innovation. „Wenn wir diese erzeugten Daten richtig aufbereiten und instrumentieren können ... dann können wir einen ziemlich unüberwindlichen Datenvorteil schaffen, wenn es um den militärischen Einsatz künstlicher Intelligenz geht.“

Wangs Unternehmen hat ein begründetes Interesse an dieser Vision, da es regelmäßig mit dem Pentagon zusammenarbeitet und große Mengen an Trainingsdaten für KI-Projekte verarbeitet. In US-Militärkreisen herrscht jedoch die Überzeugung, dass ein verstärkter Einsatz von KI und maschinellem Lernen praktisch unvermeidlich – und unerlässlich – ist. Ich habe kürzlich über diese wachsende Bewegung geschrieben und darüber, wie eine Pentagon-Einheit handelsübliche Robotik und KI-Software einsetzt, um große Teile des Ozeans im Nahen Osten effizienter zu überwachen.

Neben den beispiellosen militärischen Daten des Landes sagte Wang bei der Kongressanhörung, dass die USA den Vorteil hätten, die weltweit fortschrittlichsten KI-Chiphersteller wie Nvidia und die weltweit beste KI-Expertise zu beherbergen. „Amerika ist der bevorzugte Ort für die talentiertesten KI-Wissenschaftler der Welt“, sagte er.

Auch Wangs Interesse an militärischer KI verdient Beachtung, denn Scale AI steht an der Spitze einer weiteren KI-Revolution: der Entwicklung leistungsstarker großer Sprachmodelle und fortschrittlicher Chatbots wie ChatGPT.

Noch denkt niemand daran, ChatGPT zum Militärdienst einzuberufen, obwohl es einige Experimente gegeben hat, bei denen große Sprachmodelle in militärischen Kriegsspielen zum Einsatz kamen. Doch Beobachter sehen in den jüngsten Sprüngen der US-Unternehmen in der KI-Leistung einen weiteren entscheidenden Vorteil, den das Pentagon ausnutzen könnte. Angesichts der schnellen Entwicklung der Technologie – und wie problematisch sie immer noch ist – wirft dies neue Fragen darüber auf, welche Schutzmaßnahmen im Zusammenhang mit militärischer KI erforderlich sein könnten.

Dieser Sprung in den KI-Fähigkeiten kommt daher, dass sich die Einstellung einiger Menschen gegenüber dem militärischen Einsatz von KI ändert. Im Jahr 2017 sah sich Google mit einer Gegenreaktion konfrontiert, weil es der US-Luftwaffe im Rahmen des Project Maven des Pentagon dabei geholfen hatte, KI zur Interpretation von Luftbildern einzusetzen. Doch der Einmarsch Russlands in die Ukraine hat die öffentliche und politische Haltung gegenüber der Zusammenarbeit des Privatsektors mit Technologieunternehmen gemildert und das Potenzial billiger autonomer Drohnen und kommerzieller KI für die Datenanalyse aufgezeigt. Ukrainische Streitkräfte nutzen neuronale Deep-Learning-Algorithmen, um Luftbilder und Filmmaterial zu analysieren. Das US-Unternehmen Palantir gab bekannt, dass es Targeting-Software für die Ukraine liefert. Und Russland setzt zunehmend auf KI für autonome Systeme.

Angela Wasserschneider

Julian Chokkattu

Will Knight

Joe Ray

Trotz weit verbreiteter Befürchtungen vor „Killerrobotern“ ist die Technologie für einen solchen Einsatz noch nicht zuverlässig genug. Und als ich über die KI-Ambitionen des Pentagons berichtete, begegnete ich niemandem im Verteidigungsministerium, den US-Streitkräften oder KI-fokussierten Start-ups, die darauf aus waren, vollständig autonome Waffen einzusetzen.

Aber ein stärkerer Einsatz von KI wird zu einer wachsenden Zahl militärischer Begegnungen führen, bei denen Menschen aus der Gleichung entfernt oder abstrahiert werden. Und obwohl einige Leute KI mit Atomwaffen verglichen haben, liegt das unmittelbarere Risiko weniger in der zerstörerischen Kraft militärischer KI-Systeme als vielmehr in ihrem Potenzial, den Nebel des Krieges zu vertiefen und menschliches Versagen wahrscheinlicher zu machen.

Als ich mit John Richardson sprach, einem pensionierten Vier-Sterne-Admiral, der zwischen 2015 und 2018 als Chef der Marineoperationen der US-Marine fungierte, war er überzeugt, dass KI ähnliche Auswirkungen auf die militärische Macht haben wird wie die industrielle Revolution und das Atomzeitalter. Und er wies darauf hin, dass die Seite, die diese früheren Revolutionen am besten genutzt hat, die letzten beiden Weltkriege gewonnen hat.

Aber Richardson sprach auch über die Rolle menschlicher Verbindungen bei der Bewältigung militärischer Interaktionen, die durch leistungsstarke Technologie vorangetrieben werden. Als Marinechef gab er sich alle Mühe, seine Kollegen in den Flotten anderer Nationen kennenzulernen. „Jedes Mal, wenn wir uns trafen oder redeten, bekamen wir ein besseres Gefühl füreinander“, sagt er. „Was ich wirklich wollte, war sicherzustellen, dass ich sie relativ kurzfristig anrufen kann, sollte etwas passieren – eine Fehleinschätzung oder so etwas. Sie wollen einfach nicht, dass das Ihr erster Anruf ist.“

Jetzt wäre ein guter Zeitpunkt für die Militärführer der Welt, miteinander über die Risiken und Grenzen der KI zu sprechen.