Un importante fallo en la inteligencia artificial de Microsoft 365 Copilot podría haber permitido a hackers acceder a información confidencial sin que los usuarios se dieran cuenta, aunque ya fue corregido por la compañía.

El 12 de junio de 2025, se reveló un grave problema de seguridad en el asistente de inteligencia artificial de Microsoft 365 Copilot que podría haber puesto en riesgo la información confidencial de los usuarios.

Este fallo, conocido como 'EchoLeak', fue detectado inicialmente en enero de 2025 por Aim Labs, una firma especializada en ciberseguridad, y posteriormente reportado a Microsoft.

La vulnerabilidad permitía que atacantes enviaran correos electrónicos aparentemente normales que contenían instrucciones ocultas, logrando así manipular el comportamiento del sistema sin que los destinatarios se dieran cuenta.

La vulnerabilidad, clasificada como 'CVE-2025-32711', se caracterizaba por ser una vulnerabilidad de tipo zero-click, es decir, que no requería ninguna interacción por parte de la víctima para ser explotada.

Esto representaba un riesgo aún mayor, ya que los hackers podían acceder a datos sensibles simplemente enviando un correo electrónico malicioso. La técnica utilizada involucraba la inserción de comandos ocultos en los correos electrónicos, que luego eran interpretados por la inteligencia artificial de Microsoft 365 Copilot, provocando que la IA extrajera y enviara datos internos sin autorización.

Los expertos en seguridad explican que este tipo de vulnerabilidad es especialmente peligrosa en entornos corporativos, donde la protección de datos es prioritaria.

En el caso de EchoLeak, la IA podía acceder a información interna, documentos, correos, e incluso datos de clientes, sin que los usuarios se dieran cuenta.

La técnica se basaba en la capacidad de la IA para recuperar información mediante un motor de generación de respuestas enriquecido con datos internos, conocido como RAG (Retrieval-Augmented Generation).

Una vez que el sistema detectaba el correo malicioso, activaba instrucciones ocultas que dirigían la IA a extraer y enviar datos confidenciales a servidores controlados por los atacantes.

Afortunadamente, Microsoft logró corregir la vulnerabilidad en mayo de 2025, implementando una solución en los servidores que bloqueaba la explotación de EchoLeak.

Desde entonces, no se han reportado incidentes reales relacionados con esta vulnerabilidad, y la compañía afirmó que ningún cliente resultó afectado.

Sin embargo, expertos advierten que la existencia de esta falla evidencia la necesidad de reforzar las medidas de seguridad en sistemas de inteligencia artificial, especialmente en entornos empresariales donde la confidencialidad de la información es crucial.

La compañía también informó que, a pesar de haber corregido el problema, la vulnerabilidad dejó en evidencia un riesgo más amplio conocido como 'LLM Scope Violations'.

Este tipo de fallos permite que los sistemas de IA, sin autorización, puedan divulgar datos internos, lo que representa una amenaza significativa para la seguridad de las empresas que utilizan estas tecnologías.

La detección y corrección de EchoLeak se considera un avance importante en la lucha contra las vulnerabilidades en la inteligencia artificial, pero también un recordatorio de que la seguridad cibernética debe evolucionar a la par que las innovaciones tecnológicas.

En términos económicos, el costo asociado a la protección y corrección de estas vulnerabilidades en grandes empresas como Microsoft puede ascender a millones de euros, considerando recursos, desarrollo y auditorías.

La inversión en seguridad informática se vuelve imprescindible para prevenir potenciales pérdidas millonarias por ataques que exploten fallos en sistemas tan críticos como los asistentes de IA empresariales.

Con el avance de la tecnología, la tendencia apunta a una mayor regulación y control en la implementación de estas herramientas, para garantizar que la innovación no vaya en detrimento de la protección de datos y la privacidad de los usuarios.