Anthropic und das Pentagon: Eine Pattsituation über die KI-Kontrolle

4

Das US-Verteidigungsministerium (DoD) und Anthropic, ein führender KI-Entwickler, befinden sich in einem hochbrisanten Streit darüber, wie künstliche Intelligenz in militärischen Anwendungen eingesetzt werden kann. Die Kernfrage ist nicht, ob KI eingesetzt wird, sondern wer die Regeln festlegt: die Unternehmen, die die Technologie entwickeln, oder die Regierung, die sie einsetzt.

Der Konflikt: Grenzen des KI-Einsatzes

Anthropic unter der Leitung von CEO Dario Amodei weigert sich, seine KI-Modelle für zwei Hauptzwecke zu nutzen: Massenüberwachung von US-Bürgern und völlig autonome Waffensysteme, die tödliche Entscheidungen ohne menschliche Aufsicht treffen. Diese Haltung stellt direkt die von Minister Pete Hegseth zum Ausdruck gebrachte Position des Verteidigungsministeriums in Frage, dass jede „rechtmäßige Nutzung“ der Technologie erlaubt sein sollte.

Das Verteidigungsministerium argumentiert, dass es nicht durch die Richtlinien eines Anbieters eingeschränkt werden sollte, insbesondere wenn die nationale Sicherheit auf dem Spiel steht. In einem unverblümten Ultimatum drohte das Pentagon damit, Anthropic als „Lieferkettenrisiko“ einzustufen und sie damit faktisch von Regierungsaufträgen auszuschließen – es sei denn, sie würden bis Freitag dem nachkommen.

Warum das wichtig ist: Die Zukunft der automatisierten Kriegsführung

In diesem Streit geht es nicht nur um einen einzelnen Vertrag. Es spiegelt eine grundlegende Spannung in der rasanten Entwicklung der KI wider. Das US-Militär setzt bereits hochautomatisierte Systeme ein, von denen einige tödliche Gewalt anwenden können. Aktuelle Vorschriften erlauben es der KI, Ziele ohne direktes menschliches Eingreifen auszuwählen und anzugreifen, sofern hochrangige Beamte dies genehmigen. Anthropic befürchtet, dass die Folgen katastrophal sein könnten, wenn seine Modelle vom Militär ohne ausreichende Sicherheitsvorkehrungen eingesetzt würden.

Konkret geht es dem Unternehmen um Folgendes:

  • Unzuverlässige tödliche Entscheidungen: Wenn einer weniger leistungsfähigen KI die Kontrolle über Waffen übertragen wird, kann dies zu einer falschen Identifizierung von Zielen, einer unbeabsichtigten Eskalation oder irreversiblen Fehlern führen.
  • Verstärkte Überwachung: KI kann den Umfang und die Wirksamkeit der häuslichen Überwachung erheblich verbessern und Bedenken hinsichtlich der Privatsphäre und der bürgerlichen Freiheiten hervorrufen.
  • Mangelnde Transparenz: Militärtechnologie wird oft geheim gehalten, was bedeutet, dass das volle Ausmaß der Entwicklung autonomer Waffen möglicherweise verborgen bleibt, bis sie einsatzbereit ist.

Die Haltung des Pentagons: Pragmatismus vs. Prinzipien

Das Verteidigungsministerium besteht darauf, dass sein einziges Ziel darin besteht, KI für rechtmäßige Zwecke zu nutzen, und dass die Einschränkungen von Anthropic unnötig sind. Beamte behaupten, sie hätten nicht die Absicht, eine Massenüberwachung im Inland durchzuführen oder unkontrollierte autonome Waffen einzusetzen. Die Rhetorik von Minister Hegseth ist jedoch auf kulturelles Gebiet abgedriftet, indem er „aufgeweckte KI“ kritisiert und die Notwendigkeit „kriegsbereiter“ Systeme und nicht „Chatbots für eine Ivy-League-Fakultätslounge“ betont.

Das Pentagon hat die Befugnis, die Einhaltung durch den Defence Production Act (DPA) zu erzwingen, der es der Regierung ermöglicht, Unternehmen zur Erfüllung ihrer Bedürfnisse zu zwingen. Würde man Anthropic zu einem Lieferkettenrisiko erklären, würde man sie faktisch von der künftigen Regierungsarbeit ausschließen.

Das Fazit: Ein kritischer Entscheidungspunkt

Die Pattsituation stellt für beide Seiten eine schwierige Entscheidung dar. Wenn Anthropic sich weigert, nachzugeben, besteht die Gefahr, dass das Unternehmen eine wichtige Einnahmequelle verliert und möglicherweise seine langfristige Rentabilität beeinträchtigt. Wenn das Verteidigungsministerium ohne Anthropic vorankommt, könnte es mit einer Verzögerung von sechs bis zwölf Monaten rechnen, während andere KI-Entwickler aufholen – eine erhebliche Schwachstelle in einer sich schnell entwickelnden geopolitischen Landschaft. Das Ergebnis wird nicht nur die Zukunft der KI in der Kriegsführung prägen, sondern auch das Kräfteverhältnis zwischen Technologieunternehmen und der US-Regierung.

Попередня статтяBBC wird wegen ungefilterter BAFTA-Ausstrahlung rassistischer Beleidigungen kritisiert
Наступна статтяNYT Strands #639: Hinweise, Antworten und Thema erklärt