Einführung
Ein kürzlich veröffentlichter Bericht von Axios enthüllt, dass die National Security Agency (NSA) auf das interne KI‑Modell "Mythos Preview" von Anthropic zugreift – ein System, das bisher nicht öffentlich freigegeben wurde. Diese Entwicklung ist besonders brisant, weil das Pentagon das Unternehmen bereits als potenzielles Risiko für die Lieferkette verurteilt hat, nachdem Anthropic den uneingeschränkten Zugriff auf die volle Leistungsfähigkeit seines Modells verweigert hatte.
Hintergrund zu Mythos
Anthropic stellte Anfang des Monats das fortschrittliche Modell Mythos vor, das speziell für Aufgaben im Bereich Cybersicherheit konzipiert wurde. Das Unternehmen argumentierte, dass die Technologie so leistungsstark sei, dass sie bei falscher Handhabung für offensive Angriffe missbraucht werden könnte. Deshalb wurde der Zugang streng limitiert: Nur etwa 40 Organisationen erhaltenten Zugriff, von denen bislang lediglich ein Dutzend öffentlich benannt wurde.
Warum das Pentagon skeptisch ist
Der US‑Verteidigungsminister stellte Anthropic als "Supply‑Chain‑Risk" dar, weil das Unternehmen sich weigerte, die KI Claude für breit angelegte Überwachungsprogramme und autonome Waffensysteme freizugeben. Dieser Widerstand führte zu einer gerichtlichen Auseinandersetzung, in der das Pentagon argumentiert, dass solche Werkzeuge das nationale Sicherheitsinteresse gefährden könnten.
NSA‑Nutzung von Mythos
Die NSA scheint einer der nicht genannten Empfänger von Mythos zu sein und nutzt das Modell primär zur Durchsuchung von Netzwerken nach ausnutzbaren Schwachstellen. Durch die Analyse großer Datenmengen kann Mythos potenzielle Einfallstore identifizieren, bevor feindliche Akteure sie ausnutzen. Auch das britische AI Security Institute bestätigte, Zugriff auf das System zu besitzen, was die internationale Bedeutung der Technologie unterstreicht.
Ein interessanter Widerspruch
Während das Militär gleichzeitig vor Gericht argumentiert, dass KI‑Tools die nationale Sicherheit bedrohen, profitiert es inoffiziell von den gleichen Systemen. Der Konflikt entsteht daraus, dass Anthropic zwar die breite Anwendung seiner Technologie einschränkt, aber selektiven, hochrangigen Behörden dennoch Einblick gewährt.
Politische Auflockerung
Gleichzeitig lässt sich eine leichte Entspannung zwischen Anthropic und der aktuellen US‑Administration beobachten. Dario Amodei, CEO von Anthropic, traf sich letzte Woche mit dem White‑House‑Chief of Staff Susie Wiles und dem Finanzminister Scott Bessent. Laut Insider‑Berichten war das Gespräch konstruktiv, was darauf hindeutet, dass zukünftige Kooperationen möglich sind.
Ausblick
Die Tatsache, dass ein sensibler KI‑Dienst trotz öffentlicher Kritik und rechtlicher Auseinandersetzungen weiter eingesetzt wird, wirft Fragen nach Transparenz, Aufsicht und ethischen Richtlinien auf. Beobachter erwarten, dass weitere Regierungsstellen ähnliche Vereinbarungen treffen könnten, während Unternehmen wie Anthropic versucht sind, ihre Gewinne zu maximieren, ohne die Sicherheitsbedenken zu vernachlässigen.