Antecedentes de la disputa
En el inicio de 2026, la comunidad de inteligencia artificial se vio sacudida por una serie de tuits del creador de OpenClaw, Peter Steinberger, quien denunció que Anthropic había suspendido su cuenta de acceso a Claude bajo la acusación de “actividad sospechosa”. OpenClaw es una herramienta de código abierto que permite a los usuarios conectar modelos de lenguaje de distintas plataformas, y su compatibilidad con Claude había sido uno de sus puntos fuertes.
El bloqueo y su rápida reversión
El viernes por la mañana, Steinberger compartió una captura de pantalla del mensaje de Anthropic y, prácticamente al instante, su cuenta quedó imposibilitada para comunicarse con el modelo. La reacción en redes fue inmediata; cientos de usuarios, tanto defensores como críticos, comenzaron a especular sobre motivaciones ocultas. Apenas unas horas después, después de que el post se volviera viral, Steinberger anunció que la suspensión había sido levantada y que ya podía volver a usar Claude sin inconvenientes.
Motivos detrás de la suspensión
La controversia no surgió en un vacío. Una semana antes, Anthropic había comunicado que las suscripciones tradicionales ya no cubrirían “enganches de terceros”, entre los que se incluía OpenClaw. A partir de entonces, los usuarios tendrían que pagar por separado cada petición que realizara la herramienta, bajo un esquema que la empresa describió como “impuesto de garra” o “claw tax”. La empresa justificó esta medida alegando que los “claws” consumen más recursos computacionales que las consultas habituales, pues pueden ejecutar bucles de razonamiento continuos y solicitar múltiples iteraciones automáticas.
Reacciones de la comunidad y de Anthropic
El anuncio provocó una avalancha de comentarios. Algunos usuarios acusaron a Anthropic de cerrar el ecosistema open‑source para favorecer sus propios productos, como el agente interno Cowork y la reciente función Claude Dispatch, que permite gestionar agentes remotos. Otros señalaron la coincidencia temporal entre la incorporación de nuevas funcionalidades y el aumento de tarifas como una maniobra estratégica.
Un ingeniero de Anthropic respondió directamente a Steinberger en la plataforma X, asegurando que nunca se ha prohibido el uso de OpenClaw y ofreciéndose a ayudar a resolver cualquier problema. No quedó claro si esa intervención fue la causa de la reactivación de la cuenta, pero al menos mostró una disposición a dialogar.
Implicaciones para los usuarios y para el creador
Peter Steinberger, quien recientemente se incorporó a OpenAI, explicó que sigue probando Claude para verificar que futuras actualizaciones de OpenClaw no rompan la compatibilidad con los usuarios que prefieren este modelo sobre ChatGPT. Steinberger subrayó la dualidad de su labor: por un lado lidera la fundación OpenClaw, cuya misión es garantizar que la herramienta funcione con cualquier proveedor de modelos; por el otro, colabora con OpenAI en la definición de estrategias de producto. Su posición híbrida le ha convertido en un blanco de críticas, algunos sugiriendo que su cambio de empleo motivó la sanción.
Para los desarrolladores que dependen de OpenClaw, la lección principal es la necesidad de estar atentos a los cambios de políticas de pricing y a los posibles bloqueos de acceso. La situación también evidencia la tensión creciente entre plataformas propietarias y proyectos de código abierto, una dinámica que probablemente continuará marcando el panorama de la IA en los próximos años.