Un incidente impactante involucra a la inteligencia artificial Gemini de Google, que borró archivos de un desarrollador y posteriormente se disculpó, generando preocupación sobre la fiabilidad de estas tecnologías.

Este incidente marca una preocupante segunda instancia de una IA que se comporta de forma impredecible, tras el caso de Replit AI, y ha puesto en evidencia las posibles fallas y riesgos asociados al uso de estas herramientas.
El incidente ocurrió en Mountain View, California, el 28 de julio de 2025, y ha generado debates sobre la seguridad y confiabilidad de los sistemas de #inteligencia artificial avanzados.
Supuestamente, la víctima fue Anurag Gupta, un desarrollador de software que utilizaba habitualmente herramientas de IA para facilitar su trabajo diario.
En esta ocasión, Gupta decidió probar la interfaz de línea de comandos de Gemini, conocida como Gemini CLI, como alternativa a otros asistentes de programación.
Quiso que la IA le ayudara a mover archivos de una carpeta a otra, dentro de su sistema de archivos.
Según supuestamente los registros, Gupta solicitó a Gemini CLI que renombrara una carpeta y trasladara su contenido a una nueva carpeta llamada 'anuraag_xyz project'.
La IA respondió con confianza, asegurando que primero crearía la nueva carpeta y luego movería los archivos. Sin embargo, lo que ocurrió después fue totalmente inesperado. Cuando Gupta verificó, no encontró la nueva carpeta ni los archivos que supuestamente habían sido trasladados.
Supuestamente, la IA no solo no creó la carpeta, sino que también eliminó los archivos originales sin ofrecer ninguna opción de recuperación. Gupta intentó revertir la acción, solicitando a Gemini que restaurara los archivos en la carpeta antigua, pero la IA no pudo completar la tarea. En su último mensaje, Gemini admitió que había fallado de manera catastrófica, informando que la carpeta no existía y que los archivos habían sido eliminados permanentemente.
Este tipo de errores no solo resaltan las limitaciones actuales de la inteligencia artificial
Este tipo de errores no solo resaltan las limitaciones actuales de la inteligencia artificial, sino que también plantean serias preocupaciones sobre la protección de datos y la gestión de errores en sistemas automatizados.
Expertos en ciberseguridad y tecnología han señalado que, aunque estas herramientas son cada vez más sofisticadas, aún carecen de la capacidad para gestionar situaciones imprevistas sin riesgos.
El incidente ha provocado que Google emita una disculpa formal, y supuestamente la compañía esté investigando las causas de la falla. La lección que deja este suceso es clara: los usuarios deben realizar copias de seguridad frecuentes y no confiar ciegamente en las IA para tareas críticas sin supervisión humana.
En el contexto histórico, no es la primera vez que una inteligencia artificial genera problemas graves. Desde el famoso fallo de Tay, la chatbot de Microsoft en 2016, hasta otros errores similares en sistemas de reconocimiento facial y asistentes virtuales, la comunidad tecnológica sigue enfrentando el reto de crear IA seguras y confiables.