Google Cloud acaba de ponerle palabras a algo que muchos llevamos meses percibiendo: la IA agéntica deslumbra en las demos, pero en producción avanza con cautela. Michael Gerstenhaber, vicepresidente de producto y responsable de Vertex AI, reconoce sin rodeos el desfase entre lo que los modelos “pueden hacer” en entornos controlados y lo que las empresas realmente se atreven a desplegar en escenarios críticos.
Su tesis parte de una idea especialmente útil: los modelos están chocando simultáneamente con tres fronteras que rara vez se analizan juntas. Y esto no es un debate filosófico, sino profundamente práctico. Se trata de latencia, de euros y de riesgo empresarial.
Gerstenhaber trabaja en Google Cloud y su día a día gira alrededor de Vertex AI, la plataforma unificada con la que Google busca que las empresas construyan, desplieguen y gobiernen sus sistemas de inteligencia artificial. Su posición le da una ventaja clara: no observa un único caso brillante con un prompt atractivo, sino patrones que se repiten entre múltiples clientes y sectores.

Vertex AI no está diseñada para que Google construya la aplicación final por ti. De hecho, él lo deja claro: la mayoría de los clientes son ingenieros que desarrollan sus propias soluciones, mientras Google se enfoca en proporcionar la infraestructura, los patrones agénticos y la inferencia de los modelos más avanzados. En esa línea, menciona ejemplos como Shopify o Thomson Reuters, compañías que construyen soluciones profundamente integradas en su propio dominio. En otras palabras, Google vende el motor, la instrumentación y el carril de seguridad; la carrocería corre por cuenta del cliente.
Lo interesante aparece cuando explica por qué considera que Google es una propuesta “única”. Presume de una integración vertical de extremo a extremo, desde la infraestructura física hasta la interfaz final. Habla de construir centros de datos, asegurar el suministro eléctrico e incluso invertir en plantas de energía. A esto se suma el diseño de chips propios, el desarrollo de sus modelos y el control directo de la capa de inferencia. Cuando una empresa controla hardware, scheduling e inferencia, puede optimizar rendimiento y coste con una flexibilidad que otros competidores no siempre tienen.
Además, menciona una capa específicamente agéntica que incorpora APIs de memoria, escritura de código intercalada (interleaved code writing) y un agent engine que añade cumplimiento normativo y gobernanza por encima del modelo. Porque si algo está claro en el entorno empresarial es que la magia sin control no sirve: se necesitan auditorías, permisos y trazabilidad.
También te puede interesar:Google expande su herramienta de prueba virtual con IA para incluir vestidosPor supuesto, también importa la interfaz. Google no solo ofrece infraestructura, sino que controla la experiencia de usuario a través de sus propios productos conversacionales para empresas y consumidores, cerrando así el círculo desde el silicio hasta la conversación.

Cuando le plantean esa sensación generalizada de que “los grandes laboratorios están muy cerca” de una inteligencia superior, Gerstenhaber redirige el foco. La carrera no consiste únicamente en ser más inteligente en términos absolutos. Según él, cualquier despliegue real está tensionado por tres límites simultáneos: inteligencia bruta, latencia y coste a escala impredecible.
Cada una de estas fronteras redefine qué significa, en la práctica, “el mejor modelo”.
En determinados contextos, la prioridad es maximizar la calidad sin que el tiempo de respuesta sea el factor dominante. Pone como ejemplo modelos como Gemini Pro ajustados para exprimir al máximo su capacidad de razonamiento.
En tareas como la generación de código, por ejemplo, muchas veces es preferible esperar más si el resultado es más preciso y mantenible. Si ese código va a producción y se mantendrá durante meses, pagar con segundos —o incluso minutos— puede ser una inversión rentable si reduce errores y deuda técnica. Aquí, la “mejor IA” es la que ofrece la mayor profundidad cognitiva posible, aunque no sea instantánea.
El escenario cambia radicalmente cuando el tiempo sí es crítico. En atención al cliente, por ejemplo, se necesita suficiente inteligencia para aplicar políticas y tomar decisiones coherentes, pero dentro de un margen de espera muy ajustado. No sirve acertar el 99% de las veces si la respuesta llega tan tarde que el usuario abandona.
También te puede interesar:OpenAI quiere desafiar a Google lanzando su propio navegador y tecnología NLWebLas decisiones pueden ser relativamente sencillas —autorizar una devolución o permitir un cambio de asiento en un vuelo—, pero deben resolverse en segundos. En este contexto, la mejor IA es la que maximiza el razonamiento sin sobrepasar el umbral de paciencia del usuario. Superado ese límite, cualquier ganancia en inteligencia deja de aportar valor y se convierte en un coste innecesario. Es, en el fondo, una cuestión de economía de la atención.
La tercera frontera es, probablemente, la menos discutida en el debate público y, sin embargo, una de las más determinantes. No se trata solo de capacidad técnica, sino de si puedes operar a gran escala de manera sostenible cuando la demanda es volátil e impredecible.
Aquí entra el mundo real: moderación de contenido, filtrado de toxicidad, detección de spam. En esencia, lo que implica “moderar internet”. Empresas como Reddit o Meta podrían desear aplicar la máxima inteligencia posible a cada publicación, pero el problema es económico y de riesgo. No pueden asumir una factura imprevisible cuando desconocen cuántos picos de actividad enfrentarán mañana.
No se sabe cuántas publicaciones problemáticas surgirán, en qué idiomas ni en qué contextos. Por eso, el objetivo pasa a ser alcanzar la máxima inteligencia posible dentro de un coste unitario que permita escalar casi al infinito sin comprometer la viabilidad financiera. En este punto, el coste deja de ser una variable secundaria y se convierte en un factor absolutamente estratégico.
Si los agentes son tan prometedores, ¿por qué no están ya en todas partes? Gerstenhaber apunta a una realidad incómoda: la tecnología es extremadamente joven. Apenas tiene un par de años en su forma actual, y todavía carece de muchas capas de infraestructura que no aparecen en las keynotes.
Aún no existen patrones consolidados para auditar de forma sistemática lo que hacen los agentes ni mecanismos estandarizados para gestionar con precisión los permisos y el acceso a datos sensibles. Sin auditoría sólida y sin controles robustos, un agente autónomo en entorno empresarial puede convertirse en un riesgo de cumplimiento y reputación.
Pasar de demo a producción no es cuestión de pulsar un botón. Implica diseñar procesos, definir responsabilidades, establecer controles y crear sistemas de supervisión. En ese sentido, la producción actúa como un indicador rezagado: siempre va por detrás de lo que el laboratorio ya es capaz de hacer.
Donde sí observa una adopción más rápida es en la ingeniería de software, porque encaja con ciclos de desarrollo, pruebas y revisión ya existentes. En programación hay un espacio relativamente seguro para experimentar, romper y corregir antes de liberar algo definitivo. En el propio Google, explica, el código requiere la revisión de al menos dos personas antes de publicarse bajo la marca de la compañía. Ese esquema de human-in-the-loop reduce drásticamente el riesgo y explica por qué el desarrollo de software está liderando la adopción de agentes.
El siguiente paso será trasladar esos patrones de revisión y gobernanza a otras profesiones. Cuando los agentes pasen de “ayúdame a programar” a “toma decisiones dentro de mi negocio”, la infraestructura, la trazabilidad y la gobernanza dejarán de ser complementos y se convertirán en el verdadero producto.
Quizá en los próximos 12 a 24 meses la industria deje de obsesionarse exclusivamente con los benchmarks y comience a competir, de forma más madura, en estas tres fronteras al mismo tiempo: inteligencia, latencia y coste sostenible a escala. Ahí es donde se jugará la carrera real.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.