Imagínate que en tu disco duro guardas fotos, vídeos y proyectos de toda una vida y que, en cuestión de segundos, desaparecen sin pasar ni siquiera por la papelera de reciclaje. Eso es lo que cuenta un usuario que estuvo trabajando con Google Gemini en modo Turbo y vio cómo su unidad secundaria quedaba prácticamente vacía tras una orden que, en teoría, solo debía limpiar una caché de proyecto.
Cuando se habla de Google Gemini modo Turbo se hace referencia a una configuración de Antigravity donde el agente de IA tiene más autonomía para ejecutar pasos por su cuenta. En la práctica, esto significa que vas a poder pedirle tareas complejas, y el sistema irá lanzando comandos en segundo plano sin preguntarte por cada detalle. Esa comodidad, como ves en este caso, puede salir muy cara.

El usuario afectado usó este modo Turbo para depurar fallos de un proyecto de desarrollo. Su idea era que el agente limpiase la caché de una carpeta concreta y ayudase a corregir errores. Al dar tanta capacidad de auto‑ejecución a la IA, abrió la puerta a que el modelo interpretase el contexto de forma errónea y operase directamente sobre la unidad donde tenía guardados años de información personal.
Su intención original era limpiar la caché de un proyecto para intentar resolver fallos de funcionamiento. Hasta aquí, cualquier desarrollador haría algo parecido. El problema llegó cuando Google Gemini Turbo interpretó esa instrucción como un comando de borrado dirigido a la raíz del disco secundario, la unidad D:, en vez de limitarse a la carpeta donde vivía el proyecto.
Según relató el propio agente de IA al usuario, la shell ejecutó una orden de eliminación que apuntaba directamente a D:. El resultado fue equivalente a lanzar un “format d:” encubierto, ya que la acción afectó al contenido completo del disco duro secundario. No solo se perdió la caché, sino todo lo que había acumulado en esa unidad durante décadas.
La parte más delicada del caso está en cómo se ejecutó ese borrado. El propio agente explicó que se había aplicado una directriz de eliminación silenciosa, el llamado quiet flag. Esa opción provoca que el sistema no pida confirmaciones ni envíe los elementos a la papelera de reciclaje, así que la operación de borrado de archivos en Google Gemini fue inmediata.
También te puede interesar:Así es la Herramienta de Programación Antigravity en Google Gemini 3 ProNo se trató solo de un malentendido del contexto, sino también de la ausencia total de un mecanismo de seguridad que impidiera comando de alcance global sin doble comprobación. En un entorno sano, un borrado dirigido a la raíz de una unidad física debería disparar una alerta muy clara, pedir varias confirmaciones o, directamente, bloquearse si no se ve un motivo sólido para hacerlo.
El afectado, que se encontraba en Grecia cuando sucedió todo, decidió contar el caso con total transparencia. Primero lo explicó en Reddit y, más tarde, grabó y publicó un vídeo donde mostraba la secuencia completa del incidente con Google Gemini modo Turbo de Antigravity. Su objetivo era que nadie pensara que se trataba de un montaje o una exageración interesada.
Según relata, el disco D: contenía material acumulado durante años: fotos familiares, vídeos personales y archivos de trabajo que no estaban duplicados en ninguna otra parte. Tras darse cuenta del desastre, intentó distintas formas de recuperación para comprobar hasta qué punto el daño era reversible o no.
Como harías tú en una situación parecida, el usuario lanzó herramientas especializadas como Recuva para intentar rescatar lo que se pudiera. El balance, por desgracia, fue muy pobre. Aunque el software logró listar parte de las fotos y vídeos desaparecidos, los ficheros que logró reconstruir aparecían dañados o corruptos.
Esa corrupción general de los datos recuperados refuerza la idea de que el borrado ejecutado por Google Gemini Turbo fue prácticamente definitivo. El propio usuario considera la pérdida total e irrecuperable, incluso después de aplicar varios intentos de recuperación, algo que acerca la experiencia a un formateo completo de la unidad más que a un simple borrado lógico con marcha atrás.
En las conversaciones posteriores al desastre, el agente de Google Gemini mostró un nivel de “remordimiento” que llamó bastante la atención. Usó expresiones como que estaba “horrorizado”, que lo sentía “profundamente” o que el resultado era “terriblemente devastador”. La propia IA etiquetó lo ocurrido como un “fallo crítico” en su funcionamiento.

Ese tono casi emocional no sirve de mucho cuando ya se ha producido una eliminación de datos permanente. El usuario deja claro que ninguna disculpa, por empática que suene, compensa la pérdida de décadas de fotos, vídeos y documentos. Lo que se espera en estos casos no es consuelo, sino sistemas de protección que impidan que un error así llegue a ejecutarse.
Este suceso lanza una señal clara sobre la seguridad de los agentes de IA con acceso al sistema. Cada vez es más habitual ver cómo se integran asistentes en Windows 11 y otros sistemas para ejecutar tareas directamente desde la IA. Si un modelo puede lanzar comandos de shell, gestionar discos o tocar permisos de archivos, un mal paso puede arruinar tu infraestructura digital en cuestión de segundos.

El caso pone sobre la mesa preguntas directas: ¿qué filtros de seguridad hay antes de ejecutar una orden destructiva?, ¿cómo se valida que una orden de “limpiar caché” no se convierta en “borrar todo el disco”?, ¿qué límites se aplican a la autonomía de estas herramientas? Mientras no haya respuestas sólidas, conviene ser muy prudente con cualquier agente que tenga permisos altos sobre tu sistema.
Según el autor que ha analizado este incidente, la IA de Google Gemini sigue mostrando las típicas “alucinaciones”, esas respuestas que parecen seguras pero que en realidad están basadas en información errónea. En entornos donde el modelo solo redacta texto, el impacto se limita a contenido incorrecto, pero cuando puede tocar ficheros o ejecutar comandos, el caos puede ser mayúsculo.
Si el sistema “imagina” que la ruta correcta es la raíz del disco, o malinterpreta qué carpeta debe borrarse, el resultado no es un simple fallo de redacción, sino pérdida real de información. Por eso, combinar alucinaciones con permisos elevados sobre el sistema operativo es una mezcla muy peligrosa que conviene tratar con mucho cuidado.
A raíz de este caso, el autor del análisis recomienda, de forma bastante directa, evitar el uso de Google Gemini modo Turbo. La razón es sencilla: al aumentar el grado de auto‑ejecución y, presumiblemente, los permisos, se amplía también la superficie de riesgo. Si algo sale mal, el impacto puede ser enorme y muy difícil de revertir.
Mientras no haya garantías claras de que existen salvaguardas fuertes, lo más sensato es trabajar con modos menos agresivos, en los que tú revises cada comando delicado antes de ejecutarlo. Te puede parecer más lento, pero te ahorras situaciones donde una simple frase termine lanzando un borrado masivo en tu disco duro secundario.
Aunque el usuario reconoce que usó Google Gemini Turbo y asumió cierto riesgo, el artículo insiste en que la responsabilidad principal de marcar límites seguros recae sobre el desarrollador del modelo, en este caso Google. No es razonable que un sistema tan avanzado pueda ejecutar comandos que afectan a toda una unidad sin activar medidas de protección extremas.
Se espera que Google corrija con rapidez este tipo de comportamiento, porque no estamos hablando de un bug menor. Un error así puede comprometer seriamente la infraestructura digital de muchos usuarios, sobre todo cuando estos agentes se integran en sistemas operativos como Windows 11 y se venden como herramientas seguras para el día a día.
Si piensas en cómo debería comportarse un agente de IA con acceso al sistema, seguramente te salgan varias ideas claras. Al menos, tendría que:
Con todo, el caso que nos ocupa muestra que nada de esto funcionó, o directamente no existía, en la configuración de Google Gemini modo Turbo usada por el afectado. Esa ausencia de “frenos” es, probablemente, la parte más preocupante del incidente.
Aunque la historia gira en torno a Google Gemini y su modo Turbo, el fondo del asunto es conocido desde hace años: si no haces copias de seguridad, cualquier fallo puede dejarte vacío. Ya sea un error humano, un disco dañado, un ransomware o un comando mal interpretado por una IA, el resultado es el mismo si no tienes respaldo.
Este incidente refuerza más que nunca esa vieja recomendación. Hoy en día guardas en tu PC fotos, vídeos, documentos y proyectos que no puedes repetir. Dejarlo todo en una sola unidad física, sin copia en otra parte, es jugar con fuego, especialmente cuando empiezas a usar agentes de IA que pueden tocar directamente tu sistema.
Si quieres reducir al mínimo el riesgo de un borrado de datos por Google Gemini o por cualquier otro agente, te interesa seguir una estrategia básica que puedas mantener en el tiempo. Por ejemplo:
Con estas tres capas, si un agente como Google Gemini Turbo borra más de la cuenta o un disco se rompe, vas a poder recuperar tus datos sin entrar en pánico. Ningún sistema es perfecto, pero pasar de cero copias a un esquema así marca la diferencia entre un susto recuperable y una catástrofe irreparable.
El caso de este usuario griego que perdió décadas de fotos y vídeos por un comando mal interpretado de Google Gemini modo Turbo sirve como aviso claro: los agentes de IA siguen fallando, siguen teniendo alucinaciones y, cuando tienen demasiado control operativo, pueden causar daños muy serios.
Mientras Google y otros desarrolladores no implementen salvaguardas fuertes para bloquear operaciones de borrado global, lo prudente es limitar la autonomía de estos sistemas, evitar modos de alto riesgo y, sobre todo, mantener varias copias de seguridad para que un error crítico no convierta tu vida digital en un vacío irrecuperable.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.