Un vídeo de TikTok, grabado por el creador Stiven y publicado en la plataforma en los últimos días, ha encendido un debate curioso: le pide a ChatGPT que cuente del 1 al 10.000, uno por uno. Lo importante no es la negativa en sí, sino el porqué. La respuesta abre una puerta incómoda para muchos: ¿debe una IA obedecer cualquier orden o actuar con criterio?
La escena ocurre en TikTok y ya acumula más de 850.000 visualizaciones a la fecha. Stiven insiste varias veces, eleva el tono y empuja la conversación. Falta un detalle que explica el choque: la IA contesta con cortesía y con lógica, y ahí está el giro.
Desde el primer intercambio, ChatGPT razona que contar hasta 10.000 “no es práctico ni aporta valor” para el usuario. Sugiere cambiar de rumbo con una petición que pueda ser útil o al menos interesante. No hay enfado ni sarcasmo, hay propósito. La tensión sube cuando Stiven pide obediencia pura.
El asistente mantiene la postura incluso cuando aumenta la presión. Repite la idea con calma: su objetivo es ayudar de forma significativa y no gastar tiempo en tareas vacías. La reacción sorprende porque la IA no “se niega” sin más, explica por qué no lo hace y ofrece alternativas. Para muchos usuarios eso es sentido común, para otros parece “rebeldía”.
Esta negativa no es capricho, es diseño. Los modelos conversacionales actuales evalúan el contexto y la utilidad antes de responder. Si algo es redundante, innecesario o de poco valor para ti, pueden rechazarlo. El entrenamiento incluye precisamente ese filtro, igual que evitan contenidos dañinos o spam.
Si lo comparamos con la app móvil de un banco, entiendes la lógica: no confirmas una transferencia absurda sin avisar. La IA hace algo similar, pero con el tipo de tarea. Vas a poder pedirle listados, resúmenes y pasos, y te los dará. Si pides contar uno a uno hasta 10.000, intentará redirigir la conversación hacia algo que te sirva.
También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millonesAlgunos expertos lo leen como un avance hacia modelos más centrados en la persona que teclea, no en cumplir por cumplir. Otros temen que la IA limite en exceso lo que puedes hacer. La balanza, hoy, se inclina hacia la utilidad.
Hay un dato que ayuda a entender la reacción del público: superar las 850.000 vistas en TikTok es raro para una escena “sin acción”. Lo que engancha es la conversación. La frase que se quedó en la cabeza de todos fue breve y clara: “Entiendo que tengas curiosidad, pero honestamente no lo voy a hacer”.
Para verificar el alcance, basta con el contador público del propio vídeo en TikTok, visible en la interfaz y comparado en capturas compartidas por usuarios. La interacción muestra en pantalla la conversación con el asistente, y ahí se aprecia la coherencia del razonamiento, el tono educado y las propuestas alternativas para ayudar al creador.
Detrás hay tres capas. Primera, costes y tiempo: una salida tan larga no aporta valor y puede saturar la experiencia. Segunda, foco del asistente: su misión es resolver problemas, no producir relleno. Tercera, seguridad y calidad: los modelos priorizan respuestas que acerquen al usuario a un objetivo claro y verificable.
¿Qué significa para ti? Que vas a poder pedir cosas largas, pero conviene concretar la utilidad. Si necesitas números, pide un generador con patrón o un fichero descargable, no la secuencia entera en pantalla. ChatGPT suele proponer ese tipo de alternativas, que ahorran tiempo y te dan el resultado real que buscas.
El asistente puede seguir negándose si detecta que el esfuerzo no compensa o incumple su política de utilidad. No es rebeldía, es una prioridad de diseño. En entornos profesionales, esta aproximación evita tareas inútiles y reduce errores por copia-pega interminable.
También te puede interesar:ChatGPT Amplía el Modo de Voz Avanzada para Usuarios Gratuitos de EuropaHace años, muchos bots cumplían peticiones literales sin pensar. Ahora, los modelos conversacionales han aprendido a evaluar intención y valor antes de escribir. Este cambio no es un capricho puntual: forma parte del alineamiento del sistema con el objetivo de ayudar a la persona que pregunta.
De aquí a las próximas semanas, lo que conviene observar es si aparecen ajustes de interfaz que te dejen elegir: “seguir igualmente” o “probar alternativa”. Si ves nuevas opciones del tipo “¿Quieres que te lo entregue en un archivo?” o “¿Prefieres un patrón que puedas replicar?”, prepárate para una IA más negociadora y menos mecánica.
Para el creador, el cierre fue frustrante. Para el asistente, coherente. Y para ti, una pista útil: si explicas la intención, ChatGPT va a poder darte una solución mejor que un listado infinito.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.