Een onverwachte schoonmaakactie op GitHub
Op dinsdag ontdekte een software‑engineer dat Anthropic per abuis toegang had verleend tot de broncode van hun populaire command‑line‑tool Claude Code. De code, die normaal alleen via officiële kanalen beschikbaar is, ontsnapte via een recentere release en vond al snel verspreiding onder AI‑enthousiastelingen. Veel ontwikkelaars analyseerden de code om te begrijpen hoe Anthropic hun toonaangevende LLM in de applicatie integreert, en plaatsten hun bevindingen in talloze openbare repos op GitHub.
De takedown‑notice onder Amerikaans auteursrecht
Anthropic stuurde vervolgens een formele afschrijvingsverzoek naar GitHub, waarin werd gevorderd dat alle repositories die de gelekte code bevatten, verwijderd moesten worden. Volgens de logs van GitHub werden meer dan 8.100 repositories getroffen, inclusief legitieme forks van de eigen publiek beschikbare Claude‑Code‑repo. Deze massale verwijdering trof zowel onbedoelde klonen als legitieme bijdragers, waarna woede op sociale media oplaaide.
Een foutieve uitvoering en snelle correctie
Boris Cherny, hoofd van Claude Code bij Anthropic, gaf aan dat de maatregel een vergissing was. Het opgegeven repository‑ID maakte deel uit van een fork‑netwerk dat verbonden is met hun eigen publieke repo, waardoor de afschrijvingsorder veel verder reikte dan bedoeld. Na de publieke kritiek trok Anthropic de meeste notices in, en hield alleen één specifiek repository en 96 directe forks onder het verbod. GitHub herstelde de toegang tot de overige takken kort daarna.
Reacties uit de ontwikkelaarsgemeenschap
Gebruikers waren gefrustreerd omdat hun werk ineens onbereikbaar werd. Veel van hen hadden aanzienlijke tijd geïnvesteerd in het testen en documenteren van de gelekte code. De onbedoelde blokkade leidde tot discussies over de verantwoordelijkheid van bedrijven bij het beheren van intellectueel eigendom en de risico’s van geautomatiseerde copyright‑claims.
Gevolgen voor de aanstaande beursgang
Anthropic staat bekend om zijn plannen om naar de beurs te gaan. Een incident waarin duizenden repositories zonder duidelijke reden worden verwijderd, werpt een schaduw over hun compliance‑processen. Analisten waarschuwen dat aandeelhouders mogelijk juridische stappen ondernemen als gevolg van het lek, aangezien een publiek bedrijf doorgaans strengere eisen stelt aan databeveiliging en transparantie.
Wat dit betekent voor de bredere AI‑sector
De situatie onderstreept de kwetsbaarheid van code‑delen die op open platforms circuleren. Terwijl ontwikkelaars enthousiast zijn over het delen van kennis, moeten bedrijven scherp toezien op de verspreiding van hun eigendom om onbedoelde sancties te vermijden. De incidenten rondom Anthropic kunnen andere AI‑start‑ups aanzetten tot een voorzichtiger beleid rondom source‑code‑publikatie en juridisch toezicht.