El creciente conflicto en la inteligencia artificial y sus implicaciones
Microsoft y OpenAI están investigando la supuesta extracción de datos por parte de DeepSeek, lo que ha generado preocupaciones sobre la competencia internacional en el campo de la inteligencia artificial. La investigación se centra en la actividad sospechosa detectada a través del API de OpenAI a finales de 2024.El conflicto entre Microsoft, OpenAI y DeepSeek resalta la creciente tensión en el campo de la IA. La investigación actual podría establecer precedentes importantes para el uso de modelos de IA y la protección de datos en el futuro.Detección de actividad sospechosa
Microsoft, el principal inversionista de OpenAI, detectó una extracción masiva de datos e informó del incidente a la creadora de ChatGPT. Se sospecha que la actividad pudo haber violado los términos de servicio de OpenAI o que el grupo pudo haber explotado lagunas para evadir restricciones sobre la cantidad de datos que podían recopilar.
El ascenso de DeepSeek
DeepSeek ha ganado prominencia en el competitivo panorama de la IA, especialmente con el lanzamiento de su último modelo, R-1, el 20 de enero. El R-1, promocionado como rival de ChatGPT de OpenAI por su desempeño pero desarrollado a un costo significativamente menor, ha sacudido la industria tecnológica.
Su lanzamiento provocó una caída abrupta en las acciones de tecnología e IA, eliminando miles de millones del mercado estadounidense en una sola semana.
Acusaciones de métodos cuestionables
David Sacks, el recién nombrado “zar de criptomonedas e IA” de la Casa Blanca, afirmó que DeepSeek pudo haber empleado métodos cuestionables para lograr las capacidades de su IA. En una entrevista con Fox News, Sacks señaló que DeepSeek podría haber utilizado la “destilación” para entrenar sus modelos utilizando datos de los sistemas de OpenAI.
Riesgos de la destilación de modelos
La destilación de modelos implica entrenar un sistema de IA utilizando datos generados por otro, lo que podría permitir a un competidor desarrollar funcionalidades similares. Este método, cuando se aplica sin la autorización adecuada, ha generado debates éticos y de propiedad intelectual en la carrera global por la supremacía en la IA.
OpenAI ha reconocido el riesgo que representa la destilación de modelos, especialmente por parte de empresas chinas.
Preocupaciones de seguridad nacional
Según CNBC, la Marina de EE. UU. ha prohibido a su personal utilizar los productos de DeepSeek, citando temores de que el gobierno chino pueda explotar la plataforma para acceder a información sensible. En un correo electrónico del 24 de enero, la Marina advirtió a su personal contra el uso de DeepSeek AI “en cualquier capacidad” debido a preocupaciones de seguridad y ética asociadas con el origen y uso del modelo.
Creciente competencia en IA
La competencia creciente entre EE. UU. y China en el sector de la IA ha subrayado preocupaciones más amplias sobre la propiedad tecnológica, la gobernanza ética y la seguridad nacional. A medida que los sistemas de IA avanzan y se vuelven cada vez más integrales en la planificación económica y estratégica global, los conflictos sobre el uso de datos y la propiedad intelectual probablemente se intensificarán.
(Image by Mohamed Hassan)
Implicaciones futuras
Mientras OpenAI y Microsoft continúan investigando el supuesto uso indebido de la plataforma de OpenAI, tanto empresas como gobiernos están prestando mucha atención. El caso podría sentar un precedente para cómo los desarrolladores de IA vigilan el uso de sus modelos y hacen cumplir los términos de servicio. La respuesta de las partes interesadas en EE. UU. y China destaca cómo la innovación en IA se ha convertido en una competencia geopolítica que está moldeando la dinámica de poder del siglo XXI.