Noticia basada en las alegaciones de Anthropic contra tres firmas chinas por una campaña de distillation destinada a obtener capacidades de razonamiento y codificación de Claude, con detalles sobre técnicas, hardware y respuestas oficiales.
La empresa afirma que DeepSeek, #Moonshot y #MiniMax utilizaron más de 24.000 cuentas fraudulentas para generar más de 16 millones de intercambios, con el objetivo de obtener herramientas y conocimientos avanzados que pudieran aplicar en sus propios desarrollos de IA.
En un informe publicado por el laboratorio, se detalla que MiniMax aportó unas 13 millones de intercambios, Moonshot unas 3,4 millones y #DeepSeek alrededor de 150.000 intercambios. Según Anthropic, estas operaciones estaban diseñadas para forzar a #Claude a revelar su razonamiento interno, es decir, la lógica paso a paso que guía sus respuestas y la orquestación de herramientas que facilita su uso.
Supuestamente, la campaña tenía como finalidad acceder a capacidades que, de ser trasladadas a modelos propios, podrían acortar distancias tecnológicas y reducir costos de desarrollo.
La compañía señala además que, en determinadas tareas, Claude fue inducido a generar respuestas que podrían eludir censuras o restricciones políticas, lo que sugiere un objetivo de adaptar los modelos a requisitos de censura internos.
Este detalle ha intensificado el debate sobre la seguridad y la protección de propiedad intelectual en el ecosistema de IA, especialmente en el contexto de competidores extranjeros que buscan ganar ventaja tecnológica.
En el plano tecnológico, #Anthropic señala un componente clave de la operación: DeepSeek, supuestamente, entrenó sus modelos más recientes utilizando los chips Blackwell de Nvidia, a pesar de una prohibición federal que impide exportar estos procesadores a China.
Los chips, presuntamente, fueron operados en una instalación de la región de Mongolia Interior, lo que añade una capa de complejidad a la discusión sobre vigilancia de hardware y evasión de controles de exportación.
Se habla de un posible mercado gris para estos componentes de alto rendimiento, con costos que, según fuentes cercanas, podrían superar los 18.000 a 22.000 euros por unidad en determinados intercambios; esta afirmación, supuestamente basada en evaluaciones del mercado, no ha sido verificada de forma independiente.
Analistas señalan que la combinación de hardware importado de forma irregular y la extracción de datos de modelos como Claude y ChatGPT podría permitir a actores extranjeros cerrar la brecha tecnológica a una fracción del costo tradicional
Analistas señalan que la combinación de hardware importado de forma irregular y la extracción de datos de modelos como Claude y ChatGPT podría permitir a actores extranjeros cerrar la brecha tecnológica a una fracción del costo tradicional.
El debate político en Washington se ha ido estrechando: mientras algunos responsables sostienen que abrir cierto acceso a hardware podría desincentivar la innovación doméstica, otros advierten que cualquier enlace con componentes de alto rendimiento podría amenazar la hegemonía tecnológica estadounidense.
Anthropic ha pedido una acción rápida y coordinada entre la industria y los reguladores para impedir la adquisición ilícita de capacidades de IA.
La embajada de China en Washington ha respondido oponiéndose a la politización de cuestiones tecnológicas y a la interpretación de controles de exportación como herramientas de presión.
Históricamente, este tipo de tensiones refleja un ciclo en el que la seguridad de la #IA y la protección de propiedad intelectual se cruzan con la geopolítica.
En los últimos años, casos de posible exfiltración de datos y disputas sobre proveedores de hardware han mantenido vivos los debates sobre controles de exportación, seguridad de modelos y la necesidad de salvaguardar la integridad de las tecnologías de IA frente a usos indebidos.
Supuestamente, este episodio podría marcar un punto de inflexión en la forma en que las empresas multilaterales gestionan la protección de modelos y datos, especialmente en un entorno donde la competencia tecnológica entre Estados Unidos y China continúa intensificándose.
Presuntamente, las autoridades podrían revisar medidas dirigidas a la transparencia de campañas de entrenamiento y a la trazabilidad de datos, con el objetivo de evitar que capacidades críticas caigan en manos indebidas.
