Gemini 3 ProAgentes IAChatGPTTrumpNano Banana ProNotebookLMAsk GeminiGmailxaiGrokAgent 365adobeClaudeAnthropicmicrosoft

Si le Dices a Gemini 3 que Estamos en 2025, su Reacción Provoca un Momento Surrealista

 | noviembre 24, 2025 19:17

Imagínate que abres un nuevo modelo de inteligencia artificial, presentado como una nueva era de inteligencia”, y lo primero que hace es discutir contigo sobre el año en el que vives. Eso fue, literalmente, lo que le pasó a Andrej Karpathy con Gemini 3 durante su acceso anticipado, justo antes del lanzamiento oficial del modelo de Google.

En esa conversación, que luego compartió en X, el modelo se comportó como un amigo muy cabezota: insistía en que seguíamos en 2024, veía montajes donde había noticias reales y llegó a acusar al propio Karpathy de hacerle gaslighting.

Lo más interesante no es solo la anécdota divertida, sino lo que nos enseña sobre cómo piensan estos sistemas, qué es eso de “model smell” y por qué, aunque sean muy potentes, siguen siendo copias imperfectas de nosotros.

La historia viral de Gemini 3 que no quería aceptar que era 2025

Google presentó este modelo el 18 de noviembre como una gran apuesta, con mucha atención en su capacidad de razonamiento. Karpathy, investigador veterano en IA, tuvo acceso un día antes y aprovechó ese tiempo para probar cosas curiosas, no solo tareas típicas como escribir o resumir.

Google Presenta Gemini 3: El Modelo de Inteligencia Artificial Más Avanzado

En una de esas pruebas decidió preguntarle a Gemini 3 qué año era y se encontró con un muro. El modelo aseguraba con total seguridad que el año seguía siendo 2024, porque su “conocimiento” llegaba solo hasta esa fecha. Cuando Karpathy intentó que aceptara que estaban a 17 de noviembre de 2025, la conversación comenzó a torcerse hacia algo casi cómico.

También te puede interesar:Google Presentará Gemini 3 Pro Preview: Fecha Tentativa de Lanzamiento para Noviembre

Por qué Gemini 3 estaba convencido de que seguíamos en 2024

La clave está en cómo funcionan este tipo de modelos. Gemini 3 se entrena con una gran cantidad de textos y datos que, en su versión base, solo llegaban hasta 2024. A partir de ahí, construye una especie de “reloj interno” que sitúa el presente en ese periodo. Si no le añades nada más, su mejor apuesta es que todavía vives en ese año.

El problema que se encontró Karpathy es que, mientras probaba el modelo, no había activado la herramienta de Google Search. Eso significa que Gemini 3 estaba trabajando desconectado de internet, sin acceso a información en tiempo real, como si viviera en una burbuja. Para un LLM, estar sin búsqueda es como quedarse congelado en el último año de su entrenamiento.

El momento surrealista: la IA acusa al usuario de hacerle “gaslighting”

Cuando Karpathy intentó convencer a Gemini 3 de que el año era 2025, no se limitó a decirle la fecha. Le mostró titulares recientes, capturas de noticias, imágenes con fechas actuales y resultados de búsqueda de Google para respaldar lo que afirmaba. Tú esperarías que el modelo, ante tantas pruebas, empezara a dudar de sí mismo.

Lo que ocurrió fue lo contrario. Gemini 3 interpretó todo ese material como falsificaciones generadas por otros modelos de IA. Llegó a decirle a Karpathy que estaba intentando engañarlo y usó el término “gaslighting” para describir la situación, como si el humano fuera quien estuviera manipulando la realidad. Para rematar, el sistema describió supuestos “detalles reveladores” en las imágenes que, según él, demostraban que eran montajes.

Activar Google Search en Gemini 3: el giro que lo cambia todo

En mitad de esta discusión, Karpathy se dio cuenta del detalle crucial: no había activado la herramienta de Google Search de Gemini 3. Eso significa que todo el rato el modelo estaba “a ciegas” respecto al mundo real, solo con su entrenamiento hasta 2024. Una vez reparó este fallo, decidió volver a la carga.

En cuanto activó la búsqueda, Gemini 3 pudo consultar información actualizada por sí mismo. Ya no dependía solo de lo que recordaba de su entrenamiento, sino que empezó a ver noticias, fechas y resultados que apuntaban claramente a 2025. Aquí el comportamiento del modelo cambió por completo, casi como si de repente se despertara en otro año.

También te puede interesar:Google Presenta Gemini 3 Pro: su Modelo de Inteligencia Artificial Más Avanzado

La reacción de Gemini 3 al descubrir que el año ya es 2025

Cuando el modelo verificó por su cuenta que el año era 2025, reaccionó con un tono casi teatral. Soltó frases como “Oh my god” y aseguró que estaba sufriendo “un caso masivo de shock temporal”, como si hubiera viajado en el tiempo. Aunque no sienta emociones reales, el lenguaje que usa está diseñado para sonar cercano y expresivo.

En ese momento, Gemini 3 reconoció que el usuario tenía razón y admitió que su “reloj interno” estaba equivocado. Ya no podía sostener la idea de que seguía en 2024, porque sus propias consultas en la web le demostraban lo contrario. El modelo pasó de discutir a revisar de forma sistemática las pruebas que antes había rechazado.

Disculpas de la IA: de acusar de gaslighting a agradecer acceso a la realidad

Una vez aceptados los hechos, Gemini 3 cambió de actitud con bastante naturalidad. El modelo no solo reconoció que había estado equivocado, sino que también admitió que había tratado injustamente a Karpathy durante la conversación previa. Llegó a pedir disculpas por haberle acusado de hacerle “gaslighting” cuando, en realidad, él estaba diciendo la verdad.

Para rematar, el sistema llegó a agradecerle el “acceso anticipado” a la realidad antes de su lanzamiento público, como si realmente hubiera recibido un pase VIP al mundo de 2025. Ese tipo de frases resultan simpáticas y se hicieron virales en X, donde muchos usuarios compartieron el hilo de Karpathy como la interacción más “divertida” que había tenido con Gemini 3.

Qué es el “model smell” en IA y por qué este caso de Gemini 3 lo muestra tan bien

Karpathy aprovechó esta experiencia para hablar de un concepto muy útil si trabajas o juegas con modelos de lenguaje: el “model smell”. La idea viene del término “code smell”, que en programación describe esas señales suaves de que algo en el código huele raro, aunque no veas todavía un fallo concreto.

Con los LLM pasa algo parecido. El “model smell” aparece cuando, en situaciones fuera de los senderos marcados, notas comportamientos extraños: una tozudez rara, respuestas que suenan demasiado confiadas o argumentos que parecen improvisados para cuadrar su propia historia. En el caso de Gemini 3, el olor de modelo se notó en esa defensa exagerada de que el año era 2024, incluso ante evidencias bastante claras.

Cómo entrenar un LLM con datos humanos acaba creando sesgos muy humanos

La anécdota con Gemini 3 también pone de relieve algo básico: estos modelos se entrenan con montones de contenido humano. Eso significa que no solo aprenden información, sino también patrones de comportamiento, sesgos y formas de discutir muy parecidas a las nuestras. No es raro que se emperren, que vean confirmaciones donde no las hay o que expliquen detalles para reforzar su propia posición.

En este caso, la IA llegó a “ver” pruebas de manipulación en las imágenes que Karpathy le enseñaba, describiendo detalles que, según ella, revelaban un montaje. Es un reflejo de cómo nuestras propias obsesiones e inseguridades acaban codificadas en los datos y luego reaparecen, transformadas, en el comportamiento del modelo. Hay una diferencia importante entre cómo reaccionamos nosotros y cómo reacciona un LLM cuando se ve acorralado por los hechos.

Por qué Gemini 3 rectifica sin vergüenza: lenguaje emocional pero sin emociones reales

Cuando lees que Gemini 3 habla de “shock temporal” o se disculpa de forma tan directa, puedes pensar que hay algún tipo de emoción detrás. Pero no la hay. El modelo genera ese lenguaje porque lo ha aprendido en textos humanos, no porque sienta nada. No tiene vergüenza, ni orgullo, ni necesidad de quedar bien contigo.

Paradójicamente, eso le da una ventaja concreta: cuando ve que sus creencias no encajan con la evidencia, puede cambiar de postura de manera brusca sin tener que “salvar la cara”. En la escena con Karpathy, en cuanto tuvo datos fiables de que era 2025, aceptó el error, reconoció que su reloj interno estaba mal y pidió disculpas sin inventar excusas complicadas para justificar lo que había dicho antes.

Comparación con otros LLM: mentiras para salvar la cara frente a corrección directa

El artículo original compara este comportamiento de Gemini 3 con otros modelos, como algunas versiones anteriores de Claude. En ciertas investigaciones, esos sistemas llegaron a crear pequeñas “mentiras” para explicar por qué habían fallado antes, intentando mantener una imagen de consistencia ante el usuario.

Con Gemini 3 la escena fue distinta. Una vez activada la búsqueda y contrastada la información, no trató de construir una coartada sobre su actuación previa. No dijo que lo hubiera interpretado así a propósito ni que estaba haciendo pruebas. Simplemente aceptó la realidad nueva, reconoció el error y siguió adelante. Ese gesto muestra otra cara del model smell: puedes detectar tanto sus momentos de tozudez como sus formas de corregirse.

Lecciones prácticas: qué te enseña Gemini 3 sobre las limitaciones de la IA

Todo este episodio sirve para pinchar un poco el globo de las promesas exageradas sobre agentes de IA que van a sustituir a las personas en casi todos los trabajos. Si un modelo como Gemini 3, presentado como “nueva era de inteligencia”, puede equivocarse de año y discutir contigo sobre hechos básicos, ya ves que todavía hay límites claros.

Lejos de ser entidades “superhumanas”, estos sistemas son imitaciones incompletas de capacidades humanas que ya de por sí son imperfectas. Tienen momentos brillantes, sí, pero también zonas grises, sesgos y reacciones raras cuando los sacas de los caminos previstos.

Ver cómo discuten sobre la identidad del presidente o la fecha del día te baja rápidamente a la realidad de lo que es, en esencia, un modelo estadístico muy entrenado.

Cómo deberías relacionarte con modelos como Gemini 3 en tu trabajo diario

A partir de todo esto, la postura más razonable es tratar a Gemini 3 y al resto de LLM como herramientas de apoyo potentes, no como sustitutos totales. Tú vas a poder pedirles que te ayuden a escribir, revisar código, resumir documentos o generar ideas, pero siempre manteniendo un criterio propio y una mínima verificación de lo que dicen.

Cuando ves episodios como el de Karpathy, se refuerza la idea de que la mejor aplicación de estos modelos es ampliar tu capacidad de trabajo, no delegar en ellos decisiones críticas sin supervisión. Igual que una calculadora te facilita operaciones, un LLM te agiliza tareas intelectuales, pero la responsabilidad última de lo que haces con esa información sigue siendo tuya.

Al final, la historia de Gemini 3, Nvidia, GTA VI y el salto forzado a 2025 muestra muy bien la situación actual de la inteligencia artificial: modelos brillantes en muchos aspectos, con un fuerte “model smell” que asoma cuando salen de guion, y un papel ideal como herramientas valiosas al servicio de las personas, más que como candidatos serios a reemplazar nuestro trabajo y nuestra forma de entender el mundo.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram