El hallazgo viene de un video casero en el que se ve a un robotaxi de Waymo, circulando en sentido contrario por una vía muy transitada. La grabación se publicó en Reddit y se volvió un pequeño espejo incómodo sobre cómo se comporta la conducción autónoma cuando algo se desacomoda.
Por su parte, el medio local My San Antonio ubicó el episodio en una vía de servicio junto a la autopista Interstate 35. En el clip se ve un mecanismo que desconcierta: el vehículo enciende las balizas, luego activa el intermitente, pero gira hacia el lado opuesto al indicado y entra lento en una estación de servicio, mientras otros autos deben apartarse.

“La seguridad es la máxima prioridad”, aseguró un portavoz de Waymo en una declaración enviada a MySA, y remarcó que esa prioridad incluye tanto a pasajeros como a quienes comparten la calle.
Es decir, el problema no parece ser “velocidad” sino coherencia. Un auto humano puede equivocarse, pero suele dejar pistas claras. El robotaxi, en cambio, mostró señales contradictorias, como si su tablero interno discutiera consigo mismo.
En otras palabras, la conducción autónoma funciona como un cableado eléctrico con muchos interruptores. Hay sensores que “ven”, mapas que “recuerdan” y un sistema que decide. Cuando todo está alineado, el tránsito fluye como una casa bien instalada. Pero si un interruptor interpreta mal una entrada, la luz que se prende no siempre es la que uno espera.

No obstante, esa explicación no necesita matemática para ser inquietante. Si el intermitente es la promesa hacia afuera, el giro real es la acción. Cuando ambos no coinciden, el resto de los conductores pierde la pieza clave: la capacidad de anticipar.
También te puede interesar:Waymo Prueba Gemini Como Asistente de IA a Bordo de sus RobotaxisLa pista más clara está en lo que el auto intentó hacer después: salir del conflicto entrando a una gasolinera. Es una conducta típica de “modo seguro”, una especie de piloto automático de repliegue cuando algo no cierra en el entorno.
Por su parte, Waymo viene ajustando su software para que sus vehículos sean menos conservadores. Ese ajuste se apoya en actualizaciones, cambios en el “software de conducción” (las reglas que decide el auto). El objetivo declarado es acercarse a un estilo humano, más ágil. El riesgo es que esa agresividad mal calibrada se convierta en un interruptor sensible.

Es decir, no es un caso aislado. Waymo retiró recientemente una actualización tras detectar problemas cerca de autobuses escolares. Según lo reportado, en Austin se registraron unos veinte incidentes donde robotaxis pasaron rápido junto a micros detenidos con señales activas, incluso con estudiantes bajando.
No obstante, la acumulación de episodios empujó a la NHTSA, la Administración Nacional de Seguridad Vial en Autopistas de EEUU, a abrir una investigación sobre la compañía. Y el inventario de señales de alarma suma más: dificultades para detenerse ante operativos policiales y respuestas imperfectas cuando una mascota cruza la calzada.
El debate ya no es si “manejan solos”, sino si lo hacen con un criterio central estable. Porque en la calle, la confianza se construye con repetición: frenar donde hay que frenar, ceder donde hay que ceder, y comunicar sin ambigüedades.
Sin embargo, también hay una oportunidad: cada incidente funciona como un diagnóstico. Si la conducción autónoma es un sistema de cableado, estos videos señalan dónde hay falsos contactos. Y arreglarlos es la condición mínima para que, algún día, compartir la avenida con un robotaxi se sienta tan normal como ver una luz verde bien sincronizada.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.