Ein geheimnisvolles KI‑Tool im Fokus der US‑Spionage
Die National Security Agency (NSA) greift auf das brandneue KI‑Modell Mythos von Anthropic zurück – und das, obwohl das Pentagon das Unternehmen bereits als potenzielle Lieferketten‑Gefahr bezeichnet hat. Das Modell, das erst vor wenigen Wochen angekündigt wurde, bleibt offiziell außer Reichweite der Öffentlichkeit und wird nur einer Handvoll ausgewählter Institutionen zugänglich gemacht.
Mythos – ein KI‑System für Cyber‑Sicherheit
Anthropic beschreibt Mythos als ein Frontier‑Modell, das speziell für Sicherheits‑ und Verteidigungsaufgaben entwickelt wurde. Gleichzeitig warnt das Unternehmen, dass die Leistungsfähigkeit des Systems ausreicht, um offensive Cyberangriffe zu orchestrieren, weshalb eine offene Veröffentlichung aus ethischen Gründen verhindert wurde. Stattdessen dürfen rund 40 Organisationen das Modell testen – öffentlich wurden bislang nur etwa ein Dutzend genannt.
NSA und das britische AI Security Institute im exklusiven Zugriff
Laut dem Rechercheportal Axios gehört die NSA zu den bislang nicht offen benannten Empfängern von Mythos. Die Behörde nutzt das System primär, um digitale Infrastrukturen nach verwundbaren Stellen zu durchsuchen. Auch das britische AI Security Institute hat bestätigt, dass es Zugriff auf das Modell hat, was die internationale Dimension des Tools unterstreicht.
Der Konflikt mit dem Pentagon
Der Streit zwischen Anthropic und dem US‑Verteidigungsministerium begann, als das Unternehmen sich weigerte, sein bislang bekanntes Modell Claude für umfassende Inlandsüberwachung und autonome Waffensysteme freizugeben. Das Pentagon stufte Anthropic daraufhin als Supply‑Chain‑Risk ein – ein Hinweis darauf, dass die Technologie potenziell sicherheitskritische Lücken aufweisen könnte.
Paradoxerweise setzt das Militär nun jedoch auf ein weiteres, noch stärker kontrolliertes Werk von Anthropic. Der Widerspruch wirft Fragen auf: Wie lässt sich ein Tool, das als „zu gefährlich für die Öffentlichkeit“ gilt, gleichzeitig für staatliche Überwachungs‑ und Angriffsoperationen freigeben?
Politische Aufwartungen und mögliche Folgen
Die jüngste Begegnung zwischen Anthropics CEO Dario Amodei, der White‑House‑Chefin der Stabsstelle Susie Wiles und dem Finanzminister Scott Bessent deutet darauf hin, dass die Beziehungen zwischen dem Unternehmen und der Trump‑Administration wieder etwas entspannter werden. Die offizielle Einschätzung lautet, das Gespräch sei „produktiv“ gewesen.
Für die Tech‑Community wirft das Szenario ein Schlaglicht auf die wachsenden Spannungen zwischen privater KI‑Forschung und staatlichen Sicherheitsinteressen. Während Unternehmen wie Anthropic bemüht sind, Missbrauch zu verhindern, zeigen Ereignisse wie die Nutzung von Mythos durch die NSA, dass Regierungen Wege finden, selbst die restriktivsten Werkzeuge zu adaptieren.
Die Debatte um die Balance zwischen Innovationsförderung, ethischer Verantwortung und nationaler Sicherheit dürfte in den kommenden Monaten weiter an Brisanz gewinnen.