Un hallazgo clave en el debate sobre tecnología y liderazgo apunta a una idea contraintuitiva: las herramientas ya no diferencian tanto, porque casi todos los equipos directivos acceden a metodologías similares, incluida la IA (inteligencia artificial, sistemas que aprenden de datos). La pieza central, entonces, se mueve hacia otro lado: cómo piensan los líderes y qué preguntas se animan a hacer cuando el sistema responde con certezas demasiado prolijas.
La fuente de esta mirada es doble y concreta. Por un lado, el caso de un medicamento lanzado por una gran farmacéutica: los ensayos clínicos mostraban alta eficacia y un perfil de seguridad impecable, pero tras llegar al mercado aparecieron problemas de salud inesperados. Por otro, el clásico caso Tylenol, cuando Johnson & Johnson enfrentó la manipulación criminal del producto y tomó decisiones que, desde la lógica de la “optimización” pura, parecían irracionales.
Robert Rosenberg, ex CEO de Dunkin’ Donuts, lo sintetizó con una frase que funciona como interruptor mental: “Las crisis en los negocios no son excepciones sino expectativas”.

Ahora bien, ¿Dónde está el mecanismo que explica por qué la tecnología puede fallar justo cuando más se la necesita? La clave está en que las herramientas suelen operar sobre suposiciones. Cuando esas suposiciones dejan de ser válidas, el “cableado” que parecía robusto se queda sin corriente.
La analogía doméstica ayuda: una organización es como una casa con térmicas y disyuntores. En días normales, todo parece ordenado. Pero si hay una fuga eléctrica, no alcanza con mirar el manual del tablero. Lo decisivo es quién se anima a bajar la llave, avisar a todos y priorizar que nadie se electrocute, aunque eso implique quedarse sin luz un rato.
En la crisis del medicamento, la organización había seguido los pasos correctos y los datos respaldaban la aprobación. Las herramientas indicaban control. Sin embargo, el problema real apareció después, cuando ya no había guía clara: allí se vio el valor —o el límite— del liderazgo, no del procedimiento.
En Tylenol, el engranaje central fue otro. La empresa retiró todas las cápsulas del mercado, habló en público sin tener cada hecho confirmado y aceptó pérdidas millonarias en el corto plazo. Ningún modelo matemático habría recomendado ese camino. La decisión se apoyó en valores y responsabilidad ante la incertidumbre.
Durante una crisis, muchas herramientas se vuelven inútiles antes de lo previsto porque el contexto cambia más rápido que los modelos. Incluso una IA podría aportar escenarios o estimaciones financieras, pero no puede asumir responsabilidad moral. La IA no puede decidir que proteger la vida y la seguridad vale más que proteger una marca.

Por eso, el foco se desplaza hacia preguntas prácticas que cualquier equipo puede hacerse sin esperar un nuevo software: ¿la gente se siente segura para plantear preocupaciones? ¿las señales incómodas se toman en serio? ¿se revisan suposiciones, o se las defiende por conveniencia?
Además, hay un detalle que pesa como plomo: el silencio, la demora y la evasión suelen hacer más daño que una decisión imperfecta tomada con rapidez. En incertidumbre alta, las personas esperan conducción y presencia. No un discurso legal perfecto, pero frío.

Tylenol también dejó una oportunidad: Johnson & Johnson colaboró con reguladores y competidores para impulsar envases con precinto de seguridad en toda la industria. Transformó una emergencia puntual en una barrera preventiva duradera. Aun con pérdida de cuota al inicio, en un año recuperó casi todo lo perdido.
Cuando la realidad se desvía del plan, la diferencia no la marca el software. La marca la mano que baja la térmica a tiempo y pone a las personas primero.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.