En el cierre de Stranger Things, surgió una importante polémica que no deja quieto al fandom. El hallazgo no sale del episodio final en sí, sino del documental One Last Adventure: The Making of Stranger Things 5.
Algunos espectadores aseguran que, al detener un plano en la sala de guionistas, se ven varias ventanas de ChatGPT abiertas en una computadora. Y eso bastó para activar un interruptor emocional: “¿La IA escribió el final?”.
Ya venía circulando el supuesto “noveno episodio secreto”, que terminó derivando en el documental, y durante el rodaje del último capítulo hubo críticas porque el guion daba sensación de estar incompleto. Ahora, en redes, un usuario cuestionó que se muestre a guionistas con “tres pestañas de ChatGPT abiertas” mientras trabajan el desenlace.
Otro comentario apuntó a la industria con ironía: después de años de manuales de guion y gurús del sector, una gran producción de Netflix —dicen— aparenta sostenerse con Google Docs y con IA generativa.

Pero no todos leen la misma imagen del mismo modo. Una parte de la comunidad propone una interpretación más moderada: que ChatGPT podría haberse usado como apoyo para brainstorming (lluvia de ideas), para documentación o para probar enfoques generales, sin delegar la redacción de escenas o diálogos.
En esta discusión, la pieza clave no es solo qué ventanas estaban abiertas, sino para qué se usaron.
La directora del documental, Martina Radwan, fue tajante cuando le preguntaron si se usó inteligencia artificial en el guion: “No, claro que no”. Además, señaló que la idea que muchos tienen de una sala de guionistas es errónea, porque no es gente escribiendo sin parar, sino un intercambio creativo sostenido por conversaciones.
Según Radwan, el mecanismo real es iterativo: explorar ideas, retroceder, reformular y recién ahí volver al texto. Es un trabajo colectivo, menos “máquina de escribir” y más mesa de cocina con papeles, tachones y discusiones.
Para entender por qué una pestaña abierta no prueba autoría, conviene bajar la tecnología al mundo físico. Usar una IA generativa (un sistema que sugiere texto) puede parecerse a tener un tablero eléctrico en casa: hay llaves, cables y luces, pero que una llave exista no significa que alguien haya encendido esa lámpara específica.
En la práctica, una ventana de ChatGPT podría funcionar como un “toma corriente” para preguntas amplias: “¿qué finales suelen cerrar un arco?”, “¿qué opciones hay si quiero un cierre agridulce?”. Eso no equivale a que la herramienta haya escrito una escena completa. Es más parecido a mirar un recetario antes de cocinar que a pedir un delivery y presentarlo como casero.
Por eso la imagen del documental, aislada y pausada, puede ser un espejo engañoso. El contexto importa: quién usó esa computadora, en qué momento del proceso, y si fue para ideas generales o para texto final.
Mientras tanto, el caso revela una oportunidad incómoda: en la era de la IA, el público ya no solo evalúa si un final emociona. También inspecciona el cableado. Y cuando una serie es tan querida, cualquier chispa —una pestaña, un plano, un rumor— puede encender la sospecha.
Quizás el futuro de estas historias no dependa solo de cómo se escriben, sino de cómo se explica su mecanismo. Porque, para el espectador, entender el proceso también puede ser parte del cierre.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.