Anthropic, le géant prudent de l'IA, crée la polémique
Anthropic s’est longtemps positionnée comme la société d’intelligence artificielle la plus vigilante, affichant une posture ouverte sur les risques et publiant régulièrement des études approfondies sur la sécurité des modèles. Cette réputation a toutefois été mise à mal au cours de la dernière semaine, lorsque deux incidents distincts ont exposé des quantités considérables d’informations internes, révélant de quoi est réellement composé son produit phare, Claude Code.
Le incident du jeudi précédent : 3 000 fichiers exposés
Le jeudi avant l’incident le plus retentissant, le média Fortune a rapporté qu’Anthropic avait, par inadvertance, rendu accessibles près de 3 000 documents internes. Parmi ces fichiers figuraient des brouillons de billets de blog détaillant un nouveau modèle que l’entreprise n’avait pas encore annoncé publiquement. Cette diffusion accidentelle a déjà éveillé les curieux du secteur, qui se sont empressés d’analyser la stratégie de lancement et les prémisses techniques du projet.
Fuite du mardi : plus de 2 000 fichiers source dans Claude Code 2.1.88
Le mardi suivant, le problème s’est aggravé. Lors de la mise à jour 2.1.88 du paquet Claude Code, un développeur a malencontreusement inclus un répertoire contenant près de 2 000 fichiers source et plus de 512 000 lignes de code. Il s’agissait essentiellement du plan d’architecture complet d’un des produits les plus stratégiques d’Anthropic. Le chercheur en sécurité Chaofan Shou a détecté la fuite sur X presque immédiatement, déclenchant une vague de réactions dans la communauté technique.
Anthropic a réagi en qualifiant l’incident de « problème d’emballage de la version dû à une erreur humaine, et non à une brèche de sécurité ». Bien que la société ait tenté de minimiser l’événement, il est évident que la divulgation d’une telle quantité de code expose non seulement les mécanismes internes, mais aussi les directives régissant le comportement du modèle, ses outils compatibles et ses limites opérationnelles.
Conséquences pour le secteur et pour l’entreprise
Claude Code n’est pas un simple wrapper d’API ; c’est un outil en ligne de commande qui permet aux développeurs d’intégrer l’IA d’Anthropic directement dans leurs environnements de codage, favorisant la génération et la révision de code à grande échelle. Son ascension a déjà contraint OpenAI à suspendre temporairement son produit vidéo Sora, redirigeant ses efforts vers des solutions destinées aux développeurs et aux entreprises.
La fuite ne comprend pas le modèle d’IA lui‑même, mais révèle l’infrastructure logicielle qui guide son exécution. Les concurrents pourraient tirer profit de ces informations pour reproduire ou améliorer leurs propres architectures, accélérant ainsi la course à l’innovation. En parallèle, les investisseurs et les partenaires d’Anthropic surveillent de près l’impact potentiel sur la confiance des clients, sachant qu’une telle maladresse peut éroder la perception de rigueur et de sécurité qui était au cœur de la marque.
Pour les ingénieurs internes, cet épisode représente sans doute une source d’anxiété : un jour, ils découvrent que leurs travaux sont exposés publiquement, le lendemain, ils redoutent de commettre une nouvelle bévue. Le défi consiste désormais à restaurer la crédibilité, à renforcer les processus de contrôle de version et à prouver que la « précaution » affichée par Anthropic demeure plus qu’un slogan marketing.
Source: https://techcrunch.com/2026/03/31/anthropic-is-having-a-month/