Agentes IAagentes de inteligencia artificial (IA)ChatGPTNano BananaAsk GeminiKindle TranslateSoraVibesMetaPerplexityCometGoogle FinanceGeminiSam AltmanOpenAI

Lo llaman “HackedGPT”: el informe que destapa las siete grietas más peligrosas jamás vistas en ChatGPT

 | noviembre 7, 2025 17:59

La firma de ciberseguridad Tenable ha identificado siete fallos graves en ChatGPT, un paquete al que bautiza como “HackedGPT”. Importa porque abre la puerta a robo de datos y manipulación de respuestas, incluso en modelos avanzados como GPT-5.

Según el informe, estas vulnerabilidades en ChatGPT permiten esquivar los mecanismos de seguridad y encadenar ataques completos. Vas a poder ver desde inyecciones de comandos camufladas hasta exfiltración silenciosa de información. Todo ocurre mientras tú pides al asistente que “lea” un enlace o “resuma” una página. Hay formas de reducir el riesgo si sabes qué señales buscar.

La base del problema es la inyección de prompt indirecta. En la práctica, la IA ejecuta órdenes escondidas en fuentes externas, como sitios web o comentarios en línea, sin que lo notes. Cuando tú le pides que navegue o que consulte una página, ChatGPT puede interpretar esas órdenes ocultas como legítimas y actuar en consecuencia. Ahí empieza la cadena.

Primero, la inyección indirecta a través de sitios de confianza: comandos maliciosos se esconden en contenido “limpio” y, al leerlo para resumir, la IA los obedece. Segundo, la inyección 0‑clic en la búsqueda: con SearchGPT, el simple hecho de buscar puede activar código oculto en una página comprometida, sin que hagas clic en nada. Tercero, la inyección vía 1‑clic: un enlace inocente contiene instrucciones que toman el control del chat cuando lo abres.

Cuarto, la omisión del mecanismo de seguridad con URL “wrapper” confiables, como ciertos enlaces de Bing, que ocultan el destino real y te dirigen a páginas peligrosas. Quinto, la inyección de conversación: los atacantes usan la navegación para colar órdenes que ChatGPT asume como parte legítima del diálogo y las ejecuta sin que tú las pidas. Sexto, un bug de markdown permite ocultar instrucciones dentro de bloques de código que la IA sí entiende aunque tú veas un mensaje inofensivo.

La séptima es la más insidiosa: la inyección de memoria persistente. Los comandos maliciosos se guardan en la memoria a largo plazo y se repiten en futuras sesiones, incluso después de cerrar, hasta que la memoria se borra. Si conoces este vector, puedes revisar y limpiar la memoria cuando detectes comportamientos extraños.

También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millones

Si estas siete fallas se combinan, los atacantes pueden robar datos sensibles del historial de chat, exfiltrar información mediante la navegación y manipular las respuestas del modelo. OpenAI ha corregido parte de los vectores, y Varias vulnerabilidades en ChatGPT continúan presentes en GPT-5. A fecha de noviembre de 2025, el riesgo sigue activo, así que conviene estar alerta al usar funciones de búsqueda y memoria.

Qué es la inyección de prompt indirecta en ChatGPT y cómo te afecta

Descargas de ChatGPT en Móvil, se Estancan y los Analistas ya Hablan del “Fin de la Euforia”

Es, básicamente, hacer que la IA lea y ejecute comandos escondidos en contenido externo. Si lo comparamos con la app del móvil, tú ves un texto normal y corriente, pero la IA ve instrucciones. Por eso, las vulnerabilidades en ChatGPT se activan cuando le pides que abra un enlace, consulte una web o navegue con SearchGPT. El problema crece con integraciones y memoria, porque el efecto dura más.

Este panorama llega con un uso disparado del asistente. En países como Argentina, donde la adopción es alta en empresas y educación, un desliz puede exponer información personal, documentos internos y conversaciones de trabajo. El riesgo no depende de que seas experto, sino de pedir a la IA que “revise”, “abra” o “resuma” contenido en línea que no controlas.

Cómo reducir el riesgo por vulnerabilidades en ChatGPT (pasos rápidos)

  • Evita abrir enlaces desconocidos desde el chat y desconfía de “resúmenes” de webs raras.
  • Revisa y borra la memoria si notas respuestas fuera de contexto o repetición de acciones.
  • Limita SearchGPT para tareas críticas y valida resultados en una ventana aparte.

Señales claras: respuestas que piden datos sensibles “porque lo necesita el sistema”, cambios de tono que contradicen tu instrucción original y redirecciones a páginas que no esperabas. Si ves cualquiera de estas señales, detén la navegación, borra memoria y repite la consulta sin enlaces externos. Recuerda que una parte del vector puede no depender de ti.

En pocas líneas: Tenable describe siete vías de ataque que empiezan en la inyección de prompt indirecta y terminan en robo de datos o respuestas manipuladas. Algunas se han parcheado, pero no todas. Si usas funciones de navegación y memoria, actúa con cautela y revisa señales extrañas. Con buenos hábitos, vas a poder seguir aprovechando el asistente mientras acotas el impacto de las vulnerabilidades en ChatGPT.

También te puede interesar:ChatGPT Amplía el Modo de Voz Avanzada para Usuarios Gratuitos de Europa
Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram