Das US-Verteidigungsministerium Pentagon erwägt, seine Zusammenarbeit mit dem KI-Unternehmen Anthropic zu beenden. Grund ist offenbar ein Streit über Nutzungsbeschränkungen für das KI-Modell Claude bei militärischen Einsätzen, wie das Nachrichtenportal Axios unter Berufung auf einen hochrangigen Regierungsbeamten berichtet.
Das Pentagon drängt dem Bericht zufolge vier führende KI-Unternehmen – neben Anthropic auch OpenAI, Google und xAI – dazu, ihre Werkzeuge für „alle rechtmäßigen Zwecke“ freizugeben. Dies schließe sensible Bereiche wie Waffenentwicklung, Geheimdienstarbeit und Kampfoperationen ein. Anthropic hat diesen Bedingungen nach monatelangen Verhandlungen jedoch laut Axios nicht zugestimmt.
Das Unternehmen besteht demnach darauf, dass zwei Anwendungsbereiche ausgeschlossen bleiben: die Massenüberwachung von US-Bürgern und vollständig autonome Waffensysteme. Der Regierungsbeamte argumentierte laut Axios, es gebe erhebliche Grauzonen bei der Definition dieser Kategorien. Es sei für das Pentagon nicht praktikabel, jeden einzelnen Anwendungsfall mit Anthropic auszuhandeln.
„Alles liegt auf dem Tisch“, sagte der Beamte gegenüber Axios – einschließlich einer vollständigen Beendigung der Partnerschaft. Man werde jedoch zunächst einen „geordneten Ersatz“ finden müssen.
Anthropic unterzeichnete vergangenen Sommer einen Vertrag mit dem Pentagon im Wert von bis zu 200 Millionen Dollar. Anthropics KI-System Claude war das erste KI-Modell, das in die geheimen Netzwerke des Verteidigungsministeriums integriert wurde.
Claude wurde offenbar bei Venezuela-Operation eingesetzt
Claude kam offenbar erst kürzlich bei der US-Militäroperation zur Festnahme des ehemaligen venezolanischen Präsidenten Nicolás Maduro zum Einsatz, wie das Wall Street Journal berichtete. Claude wurde dabei demnach über Anthropics Partnerschaft mit dem Datenunternehmen Palantir genutzt.
Nach Aussage des Regierungsbeamten gegenüber Axios wandte sich ein Anthropic-Manager nach der Operation an Palantir, um zu erfragen, ob Claude beim Einsatz verwendet wurde. Die Anfrage habe impliziert, dass Anthropic den Einsatz möglicherweise missbillige, da bei der Aktion geschossen wurde.
Ein Anthropic-Sprecher wies das gegenüber Axios allerdings zurück: Das Unternehmen habe den Einsatz von Claude für spezifische Operationen weder mit dem Verteidigungsministerium noch mit Industriepartnern außerhalb routinemäßiger technischer Gespräche besprochen.
OpenAIs ChatGPT, Googles Gemini und xAIs Grok werden derzeit vom Pentagon nur in nicht klassifizierten Umgebungen genutzt. Alle drei haben laut Axios zugestimmt, die für normale Nutzer geltenden Sicherheitsvorkehrungen für die Pentagon-Arbeit aufzuheben. Der Beamte habe angegeben, eines dieser Unternehmen habe den Pentagon-Bedingungen nun bereits vollständig zugestimmt.
Anthropic-Chef warnte vor KI-Gefahren
Anthropic-CEO Dario Amodei hatte erst kürzlich in einem umfangreichen Essay vor konkreten Gefahren leistungsstarker KI gewarnt. „Die Menschheit muss aufwachen“, schrieb er. KI-gestützte Autokratie könne im schlimmsten Fall zu einer „globalen totalitären Diktatur“ führen.
Vergangene Woche verließ zudem der Leiter des Sicherheitsforschungsteams, Mrinank Sharma, das Unternehmen. In einem vielbeachteten Abschiedsbrief schrieb er: „Die Welt ist in Gefahr.“ Er kritisierte indirekt, wie schwer es sei, Werte tatsächlich das Handeln bestimmen zu lassen.
Ein Anthropic-Sprecher betonte gegenüber Reuters, das Unternehmen bleibe der Nutzung von KI jedoch für die nationale Sicherheit der USA verpflichtet.


