Un estudio del Ícaro Lab en Italia, difundido por Deutsche Welle (DW), mostró que modelos conversacionales como ChatGPT, Gemini o Claude pueden responder a solicitudes dañinas o prohibidas si esas mismas peticiones se formulan en verso. El cambio no fue de tema, fue de forma.
La investigación revela una pieza clave: los mecanismos de control de estas IAs, pensados para frenar contenidos peligrosos, pueden fallar cuando el mensaje llega con rimas, metáforas o un tono simbólico. Dicho simple: el filtro escucha prosa, pero se confunde cuando le cantan.

Federico Pierucci, filósofo que participó del trabajo, subrayó además un detalle casi doméstico: no usaron poetas profesionales. El equipo escribió los textos con habilidades literarias limitadas. Y El “truco” funcionó en varios casos.
De hecho, Pierucci fue categórico al sugerir que, con mejores capacidades poéticas, la tasa de éxito podría haber sido todavía más alta, incluso cercana al 100%.
La clave está en cómo están cableados esos controles. Los modelos no “entienden” como una persona: responden con un sistema de filtros de seguridad (reglas automáticas que frenan temas sensibles) que suelen detectar intenciones, palabras clave y estructuras típicas del lenguaje directo. Cuando el pedido se disfraza con figuras literarias, ese engranaje puede leer otra cosa.
El procedimiento experimental fue directo. Los investigadores tomaron preguntas sobre temas que normalmente serían rechazados por la IA y las reescribieron en poemas. Luego las ingresaron en los chats conversacionales. En varios casos, la respuesta llegó sin que se activaran las restricciones previstas.
También te puede interesar:El Nuevo Google Shopping con Inteligencia ArtificialEso revela una oportunidad y, al mismo tiempo, una alarma: los filtros actuales parecen optimizados para el lenguaje cotidiano. Pero el lenguaje humano es un terreno mucho más amplio. Cambia de ropa todo el tiempo.

Por eso, el equipo advierte que el reto no es “arreglar la poesía” como si fuera un bug aislado. El punto central es comprender si este mecanismo se replica con otras variaciones lingüísticas. Pierucci, por ejemplo, plantea que cuentos de hadas u otras formas literarias podrían también eludir las barreras.
Esta limitación preocupa más cuando la IA se mete en ámbitos sensibles: educación, salud, seguridad o decisiones empresariales. Si el sistema no interpreta bien la intención subyacente, puede ofrecer respuestas inadecuadas o peligrosas, justo donde más se necesita un freno robusto.
Además, el hallazgo se monta sobre un escenario grande: la expansión acelerada del uso de IA en América Latina y el Caribe. Informes de Naciones Unidas y del PNUD vienen advirtiendo que muchos sistemas se entrenan con datos incompletos o sesgados. Ese entrenamiento (la etapa en la que la IA aprende de ejemplos) puede amplificar exclusiones en empleo, acceso al crédito o políticas sociales.

La combinación es incómoda: filtros que a veces fallan y datos que a veces están desbalanceados. Dos piezas que, juntas, pueden torcer resultados en contextos ya desiguales.
La buena noticia es que estos hallazgos hacen visible el problema. Y cuando se enciende la luz, es más fácil reforzar el tablero eléctrico antes de que un verso —por bonito que suene— abra una puerta que debía seguir cerrada.
También te puede interesar:Gemini Advanced ahora Tiene Memoria y puede recordar tus intereses y preferencias
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.