El revuelo generado por la compañía china DeepSeek tras el lanzamiento de su modelo de inteligencia artificial (IA) R1 puso en alerta a rivales como OpenAI, desarrolladora de ChatGPT, que acusó a la firma de haber utilizado a su chatbot para obtener de manera ilegal información que luego utilizó para desarrollar sus propios asistentes inteligentes.

La popularidad que ganó el modelo de IA de DeepSeek generó un problema para las compañías que lideran esta industria, todas ellas con sede en Estados Unidos, dado que los chinos lograron desarrollar un modelo que prácticamente iguala las capacidades de los de OpenAI, Google y Meta por apenas una fracción del costo declarado por estas empresas.

Esto llevó a Microsoft –que invirtió miles de millones de dólares en OpenAI– a investigar si DeepSeek utilizó datos e información técnica de ChatGPT para entrenar a R1 y sus otros modelos.

El empresario David Sacks, recientemente nombrado por Donald Trump como jefe de IA y criptomonedas en la Casa Blanca, sugirió que DeepSeek pudo haber hecho esto mediante un proceso llamado destilación de conocimiento.

"Existe evidencia sustancial de que lo que DeepSeek hizo aquí fue destilar el conocimiento de los modelos de OpenAI", dijo Sacks durante una entrevista con Fox News.

Y sumó: "Creo que una de las cosas que veremos en los próximos meses será a nuestras principales empresas de IA tomando medidas para tratar de prevenir la destilación... Eso definitivamente ralentizaría algunos de estos modelos imitadores".

DeepSeek lanzó su modelo R1 para competir con ChatGPT, de OpenAI.

El proceso de destilación es común en la industria de la IA, y son muchos los desarrolladores que lo utilizan para crear versiones "reducidas" de modelos más grandes, dando como resultado alternativas que ofrecen las mismas respuestas con menos requisitos informáticos.

No obstante, la destilación se puede convertir en una violación a la propiedad intelectual cuando se utiliza para entrenar modelos que compiten directamente con los de los desarrolladores originales.

A esto apuntan desde OpenAI, dado que estiman que DeepSeek logró desarrollar un chatbot competitivo a un costo de entrenamiento considerablemente más bajo sirviéndose de su tecnología.

En un comunicado, la firma dirigida por Sam Altman dijo que las empresas chinas y de otros países estaban "intentando constantemente destilar los modelos de las principales empresas estadounidenses de IA".

"A medida que avanzamos, es de vital importancia que trabajemos estrechamente con el gobierno de Estados Unidos para proteger mejor los modelos más capaces", sostuvieron desde OpenAI.

El equipo de la empresa estadounidense detectó actividades sospechosas durante 2024 en su chatbot, incluyendo intentos por parte de entidades vinculadas a DeepSeek de extraer grandes cantidades de datos de los modelos de OpenAI, lo cual está explícitamente prohibido por sus términos de servicio.

La decisión que tomaron fue la de bloquear las cuentas y llevar a cabo una revisión interna para determinar si la actividad de DeepSeek implicaba una posible extracción ilegal de datos.

Al mismo tiempo, un portavoz de OpenAI citado por el Financial Times aclaró que "muchas empresas, no solo en China, intentan destilar los modelos de IA de empresas líderes", aunque "la diferencia en este caso es que se trata de una competencia directa". "Esto plantea una amenaza a nuestra propiedad intelectual", indicó.

Destilación como trampa para la eficiencia

Naomi Haefner, profesora asistente de gestión tecnológica en la Universidad de St. Gallen en Suiza, dijo que la cuestión de la destilación podría poner en duda la idea de que DeepSeek desarrolló sus modelos por una fracción del costo.

"No está claro si DeepSeek realmente entrenó sus modelos desde cero", afirmó, y siguió: "OpenAI ha declarado que cree que DeepSeek puede haberse apropiado indebidamente de ellos grandes cantidades de datos".

"Si este es el caso, entonces las afirmaciones sobre entrenar el modelo a un precio muy bajo son engañosas. Hasta que alguien replique el enfoque de entrenamiento no sabremos con certeza si un entrenamiento tan rentable es realmente posible", apuntó a Haefner.