OpenAI investiga a DeepSeek por posible uso no autorizado de sus modelos

La empresa de IA asegura que la plataforma china habría replicado su tecnología para entrenar un chatbot competidor, mientras Microsoft también investiga posibles usos indebidos de datos relacionados



No Banner to display

OpenAI inició una investigación sobre la posibilidad de que la startup china DeepSeek haya utilizado sus modelos para entrenar un chatbot rival, a través de un proceso conocido como “destilación”. Según The Wall Street Journal, este método permite que un modelo más pequeño y eficiente aprenda al replicar las respuestas generadas por uno más grande, como los desarrollados por OpenAI, lo que reduce significativamente los costos de entrenamiento.

Las sospechas de OpenAI surgieron al observar intentos desde cuentas asociadas a entidades chinas para extraer grandes cantidades de datos de sus herramientas de inteligencia artificial. Estas cuentas fueron bloqueadas por violar los términos de servicio, que prohíben específicamente usar las salidas de sus modelos para entrenar productos competidores. Según The Verge, Microsoft, como socio de OpenAI, detectó estas actividades en 2024 a través de sus investigadores de seguridad.

Un portavoz de OpenAI explicó al Financial Times: “Sabemos que empresas con sede en China —y en otros lugares— intentan constantemente destilar los modelos de las principales empresas de inteligencia artificial de EE. UU.”. La compañía añadió que, aunque la destilación es una práctica común en la industria, su aplicación para desarrollar modelos competidores constituye una violación explícita de sus términos.

OpenAI ha implementado medidas para enfrentar el uso no autorizado de sus modelos por parte de DeepSeek y otras entidades. Según The Wall Street Journal, la empresa bloqueó las cuentas sospechosas de llevar a cabo destilación de datos a gran escala desde su plataforma. Estas acciones se llevaron a cabo en colaboración con Microsoft, socio estratégico y proveedor de infraestructura de OpenAI, que ayudó a identificar a los actores responsables.

Un portavoz de OpenAI señaló que trabajan estrechamente con el gobierno de los Estados Unidos para proteger sus modelos más avanzados. En una declaración al Financial Times, enfatizó la importancia de establecer “contramedidas” para proteger la propiedad intelectual, incluyendo un cuidadoso control de las capacidades que se incluyen en los modelos lanzados públicamente.

Fuente: Infobae

Publicado en: Noticias, Sociedad   Etiquetas: , ,


Articulos relacionados