Elon Musk, director ejecutivo de xAI, reconoció que la compañía utilizó modelos de inteligencia artificial de OpenAI para entrenar parcialmente a Grok, su propio sistema de IA, mediante una técnica conocida como destilación.
La admisión ocurrió durante su testimonio ante un tribunal federal de California, en Estados Unidos, dentro del proceso judicial que enfrenta a Musk con OpenAI y Sam Altman. El caso está relacionado con la demanda presentada por el empresario contra Altman, a quien acusa de haber transformado OpenAI en una entidad con fines de lucro, en contraste con la visión original sin fines comerciales.
La destilación consiste en trasladar el conocimiento de un modelo de inteligencia artificial a otro. En términos generales, permite que un sistema más pequeño, conocido como modelo alumno, aprenda a imitar el comportamiento de una red neuronal más grande, llamada modelo profesor, a partir de sus predicciones y datos.
Durante su comparancia, Musk señaló que xAI entrenó “en parte” sus modelos Grok con modelos de OpenAI. El empresario justificó esa práctica al afirmar que es habitual utilizar otras inteligencias artificiales para validar el funcionamiento de un sistema propio.
Cuando fue cuestionado de manera directa sobre si xAI había destilado tecnología de OpenAI, Musk respondió que, en general, todas las empresas dedicadas a la inteligencia artificial recurren a ese tipo de técnicas. Sin embargo, ante la insistencia del jurado sobre el caso específico de Grok, admitió que se hizo “en parte”, en referencia al uso de modelos de ChatGPT para mejorar el desempeño de su herramienta.
Grok está integrado en la red social X, también propiedad de Musk. Aunque el empresario defendió la destilación como una práctica común en la industria, compañías como OpenAI y Anthropic han señalado previamente los riesgos asociados a este tipo de procedimientos cuando se utilizan modelos ajenos sin autorización o con multas competitivas.
La destilación se emplea con frecuencia en laboratorios de inteligencia artificial avanzada para crear versiones más pequeñas, eficientes y económicas de modelos propios. Esto permite ofrecer distintos servicios a los clientes sin recurrir siempre a los sistemas más grandes y costosos.
El conflicto aparece cuando una empresa utiliza modelos desarrollados por otra compañía para entrenar a los suyos, con el objetivo de ahorrar tiempo, dinero e infraestructura. A esa práctica se le conoce como “ataque de destilación”, debido a que puede implicar el aprovechamiento de capacidades viejas sin realizar la inversión necesaria para desarrollarlas desde cero.
OpenAI ya había señalado a la tecnológica china DeepSeek por presuntamente emplear destilación de modelos de ChatGPT para entrenar su propio modelo de código abierto, lo que abrió cuestionamientos sobre posibles afectaciones a la propiedad intelectual.
Anthropic también denunció en febrero de este año a empresas chinas como DeepSeek, Moonshot y MiniMax, a las que acusó de abusar de su modelo Claude mediante ataques de destilación. Según la compañía, esas firmas habrían generado más de 16 millones de interacciones con el chatbot a través de 24 mil cuentas fraudulentas, en violación de sus términos y restricciones.
Ante este escenario, distintas compañías de inteligencia artificial han comenzado a reforzar sus sistemas de protección. Entre las medidas se encuentran la detección de patrones asociados a ataques de destilación en el tráfico de direcciones IP, mayores controles de verificación de cuentas y nuevas salvaguardas incorporadas directamente a sus productos.
¿Quieres mantenerte a tanto de todas las noticias hoy en Puebla? ¡Explora más en nuestro portal ahora mismo!
Foto: Especial
Djs