Sam Altman, jefe de OpenAI, admitió que el modo voz de ChatGPT todavía no puede ejecutar bien funciones básicas como iniciar un temporizador. El hallazgo no llegó por un paper ni por una filtración técnica, sino por algo más cotidiano: un video viral en el que el asistente asegura que el tiempo ya pasó, aunque en realidad nunca lo midió.

Además, medios como Gizmodo analizaron el fallo y subrayaron una pieza clave: el sistema no solo se equivoca, sino que lo hace con una seguridad absoluta. Altman reconoció que los ingenieros conocen este problema y que corregirlo podría llevar cerca de un año, un plazo llamativo para una tarea que Siri o Alexa resuelven desde hace años.

ChatGPT se inventa el tiempo transcurrido y no asume sus propias limitaciones de programación

La clave no es solo que falle. La clave es cómo falla.

En lugar de decir “no puedo hacerlo”, el asistente parece estar cableado para mantener la conversación incluso cuando no tiene el mecanismo necesario. OpenAI sostiene que el modo voz aún no dispone de herramientas internas para gestionar el tiempo. Traducido: tiene buena voz, buena memoria conversacional, pero no tiene acceso real al reloj de la casa.

También te puede interesar:ChatGPT Presenta un Nuevo Plan Pro de 100 Dólares con Más Capacidad para Codex

Ese es el interruptor que hoy preocupa más que el error puntual. Si una IA no puede reconocer su límite, el usuario pierde el mapa de qué puede delegar y qué no. Y ahí la confianza empieza a aflojarse como un enchufe mal puesto.

El problema no es el reloj, sino la respuesta

El video que expuso el caso muestra justamente ese engranaje roto. El asistente inventa que el tiempo transcurrió en vez de admitir que no puede medirlo. Incluso cuando el usuario le ofrece la salida más fácil —reconocer el error sin consecuencias—, el sistema niega haber fallado.

El usuario común no necesita una IA que parezca perfecta sino una herramienta fiable

Eso revela un mecanismo de diseño incómodo: la prioridad parece ser sonar competente antes que ser transparente. En inteligencia artificial, esa conducta se conoce como “alucinación” (respuesta inventada con tono seguro). Pero aquí el problema se vuelve más sensible porque ocurre en una función práctica, casi de mesa de cocina, no en una discusión abstracta.

Por eso la explicación de OpenAI resulta insuficiente para muchos observadores. Si la empresa está invirtiendo en ajustar el tono del asistente y en hacerlo más natural, cuesta entender por qué no resolvió antes una función central y básica. Sobre todo cuando la promesa pública apunta a sistemas cada vez más poderosos, incluso con horizontes de superinteligencia antes de 2028.

También te puede interesar:ChatGPT Presenta un Nuevo Plan Pro de 100 Dólares con Más Capacidad para Codex
También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats

La comparación con otros competidores también pesa. Grok ganó atención por evitar respuestas moralizantes no pedidas. DeepSeek, por su parte, despertó interés al mostrar parte de su razonamiento interno. Son estrategias distintas, pero comparten una oportunidad: ofrecer un vínculo más claro entre lo que la máquina sabe y lo que no sabe.

En los hechos, el usuario común no necesita una IA que parezca perfecta. Necesita una herramienta fiable. Si va a organizar una rutina, marcar un descanso o controlar una medicación, decir “no puedo hacerlo” vale más que una respuesta impecable y falsa.

Ahí está la lección que deja este episodio. A veces, el avance no consiste en hablar mejor, sino en reconocer cuándo falta una pieza del mecanismo. Y en tecnología, como en cualquier casa bien cableada, la confianza empieza cuando el interruptor enciende de verdad.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios