Una supuesta operación con la IA Claude de Anthropic habría estado detrás de un intento de captura del expresidente venezolano Nicolás Maduro, según reportes citando The Wall Street Journal. El tema despierta debates sobre uso militar de IA y límites éticos.
Bengaluru, 15 de febrero: Supuestamente, la inteligencia artificial Claude, desarrollada por Anthropic, fue utilizada por unidades del Pentágono en una operación clasificada que habría terminado con la captura del expresidente venezolano Nicolás Maduro, según varios informes citando The Wall Street Journal.
La revelación, que aún no ha sido confirmada de forma oficial, marcaría la primera vez que un modelo de Anthropic se utiliza en una misión encubierta de esa magnitud y se habría logrado gracias a una alianza entre Anthropic y Palantir Technologies, cuyas plataformas de analítica de datos son ampliamente usadas por el Departamento de Defensa.
Microsoft habría llevado Claude a Foundry y ampliado el acceso de Azure a esta herramienta de Frontier AI, lo que permitiría a agencias estadounidenses combinar capacidades de síntesis de información con bases de datos estratégicas.
Anthropic, por su parte, mantiene que sus políticas de uso prohíben expresamente que Claude se utilice para facilitar violencia, desarrollo de armas o vigilancia, y añadió que trabaja con socios para garantizar el cumplimiento.
Esta tensión entre innovación y control llega en un momento en que Washington ha planteado un impulso más general para integrar IA de vanguardia en operaciones de seguridad nacional, incluso mediante plataformas de otros desarrolladores.
En el plano económico, el contrato entre Anthropic y el Pentágono habría salido a una suma de hasta €184 millones, lo que equivale a aproximadamente USD 200 millones, según conversiones actuales.
La posibilidad de cancelar ese acuerdo ha sido discutida por funcionarios estadounidenses, que señalan riesgos de reputación y de seguridad al vincular una tecnología tan sensible con misiones de alto secreto.
Los analistas señalan que, en términos técnicos, Claude podría haber servido para apoyar el análisis de datos, la síntesis de inteligencia y la orientación de decisiones operativas, más que para ejecutar acciones de combate directas.
En otras palabras, la IA podría haber funcionado como un cooperante de bajo perfil que facilita la planificación, la priorización de objetivos y la comprobación de escenarios, al tiempo que deja la ejecución a operadores humanos.
Sin embargo, estas funciones distan de estar exentas de controversia: el uso de herramientas de IA en operaciones peligrosas ha generado debates sobre errores de juicio, sesgos y responsabilidad de las decisiones tomadas con ayuda de algoritmos.
Por su parte, desde hace más de una década se discute en firmas navales y militares sobre hasta qué punto la IA debe integrarse en la cadena de mando.
Doscientos años de historia de la seguridad y las guerras modernas muestran que la tecnología ha acelerado la recopilación de datos y la capacidad de predecir movimientos, pero también han aumentado la necesidad de salvaguardar el control humano y la rendición de cuentas.
En un contexto de tensiones regionales, la noticia ha reavivado el debate sobre límites éticos, controles de exportación de tecnología y la autonomía de los sistemas de IA en operaciones sensibles.
Presuntamente, Maduro habría hablado desde una prisión en Estados Unidos, y un mensaje dirigido a su hijo Maduro Guerra habría circulado en los días siguientes, según una recopilación de publicaciones y filtraciones no verificadas.
La veracidad de cada detalle de la operación sigue sin confirmarse, y la Casa Blanca y el Pentágono no han emitido comentarios oficiales al respecto.
En todo caso, la historia deja claro que la intersección entre IA avanzada y defensa nacional está en el centro de un nuevo tablero estratégico, que podría redefinir las reglas del juego en los próximos años.