Declaración inesperada de Elon Musk
En un audaz testimonio ante una corte federal de California, Elon Musk confirmó que su empresa emergente xAI ha recurrido a la llamada "destilación" de modelos de inteligencia artificial, utilizando datos extraídos de los sistemas de OpenAI para afinar su propio asistente, Grok. La respuesta del magnate fue parcial pero clara: "En parte", admitió, reconociendo que la práctica se ha convertido en una costumbre entre los laboratorios de IA que compiten por liderar el mercado. Esta revelación llega en medio de una demanda que Musk ha interpuesto contra OpenAI, su CEO Sam Altman y el cofundador Greg Brockman, acusándolos de traicionar la misión sin ánimo de lucro original de la compañía al transformarla en una entidad con fines de lucro.
¿Qué es la "destilación" de IA?
La destilación consiste en consultar de forma masiva a un modelo ya entrenado –en este caso ChatGPT y sus versiones más avanzadas– para extraer patrones de comportamiento, respuestas y representaciones internas. Con esa información, los desarrolladores crean un modelo más compacto y económico que imita gran parte de la capacidad del original. Aunque la técnica no está explícitamente prohibida por la ley, a menudo vulnera los términos de servicio de los proveedores, que buscan limitar el uso de sus APIs para evitar la replicación no autorizada. En los últimos meses, la comunidad ha centrado la atención en firmes chinas que emplean la destilación para producir sistemas de peso abierto a bajo costo, desafiando la supremacía de los gigantes occidentales.
Implicaciones legales y competitivas
El reconocimiento de Musk de emplear esta estrategia abre un abanico de preguntas sobre la equidad del juego. Si los laboratorios con mayores recursos de cómputo pueden “robar” conocimiento de sus rivales mediante consultas intensivas, la ventaja competitiva basada en la inversión en infraestructura empieza a desvanecerse. Al mismo tiempo, la práctica plantea dudas sobre la protección de la propiedad intelectual y la viabilidad de los contratos de uso. Los tribunales podrían verse obligados a definir si la extracción masiva de respuestas constituye una infracción contractual o si, por el contrario, se trata de una forma legítima de investigación de modelo.
Reacciones de la industria
OpenAI, Anthropic y Google han anunciado la creación del Frontier Model Forum, una coalición destinada a compartir tácticas para contrarrestar la destilación, especialmente de actores estatales como China. Entre las medidas propuestas están la limitación de consultas sospechosas, la introducción de captchas avanzados y la monitorización de patrones de uso anómalos. Mientras tanto, Musk volvió a posicionar a xAI como una entidad pequeña, con apenas unos cientos de empleados, pero con la ambición de superar a los líderes actuales. En su propio ranking, colocó a Anthropic en la cúspide, seguido de OpenAI, Google y los modelos de código abierto chinos, describiendo a xAI como un competidor en desarrollo.
La polémica no solo afecta a los actores involucrados, sino que también genera inquietud entre los trabajadores del sector, que temen que la proliferación de modelos “destilados” reduzca la necesidad de invertir en grandes centros de datos. Sin embargo, voces como la del CEO de Nvidia, Jensen Huang, argumentan que la IA está creando un número enorme de empleos, impulsando nuevas áreas como la ingeniería de datos, la supervisión ética y la seguridad de modelos.
En conclusión, la confesión de Musk ilumina una práctica cada vez más común pero poco regulada dentro de la carrera por la supremacía de la inteligencia artificial. El desenlace del juicio y la respuesta de los reguladores determinarán si la destilación permanecerá como una herramienta de innovación o será catalogada como una violación contractual con repercusiones legales significativas.
Source: https://techcrunch.com/2026/04/30/elon-musk-testifies-that-xai-trained-grok-on-openai-models/