Un nuevo análisis académico, difundido por The Economist, sostiene que la inteligencia artificial no es una ruptura histórica, sino parte de una continuidad tecnológica. Te interesa porque, si esto es cierto, cambia el modo en que tú adoptas estas herramientas en el trabajo.
Los informáticos de Princeton Arvind Narayanan y Sayash Kapoor defienden una vía intermedia. Plantean que la inteligencia artificial evoluciona como otras innovaciones y que los relatos extremos, desde la utopía al catastrofismo, fallan al imaginarla como una entidad autónoma. Reconocer su potencia no significa negar cambios profundos; la cuestión es el ritmo y dónde poner el control.
Hoy el uso cotidiano de la inteligencia artificial sigue siendo limitado, incluso en países que la impulsan con fuerza, tanto en número de usuarios como en horas de trabajo. La trampa está en ignorar las condiciones reales: adaptar rutinas, cambiar estructuras, resolver la fragmentación del conocimiento, preparar datos y encajar con normas. La electrificación industrial tardó varias décadas durante el siglo XX, y no porque la técnica fuese mala.
También remarcan que muchas aplicaciones necesitan pruebas en entornos reales. En sectores regulados como la farmacéutica o los vehículos autónomos, esa validación es lenta y cara. Cuando cuaje, se notará. Por eso, el impacto económico de la inteligencia artificial será gradual, no un salto repentino, y eso afecta a tus expectativas y a los planes de tu empresa para 2025 y 2026.
Si asumes este “enfoque normalista”, el trabajo no desaparece, pero se mueve. Como en la Revolución Industrial del siglo XIX, vas a poder pasar de tareas manuales a configurar, supervisar y corregir sistemas automáticos.
Falta un aviso: sin control humano, la inteligencia artificial cometería errores y perdería utilidad para las empresas. En esa mezcla de automatización y vigilancia se jugará buena parte del empleo.
También te puede interesar:Lo que Ocurre Dentro de las Empresas con la IA: Ilusión Desatada y Desorden EstratégicoEn riesgos, los autores se alejan de centrarlo todo en la “alineación” perfecta con valores humanos. El contexto manda y la inteligencia artificial no tiene comprensión situacional. Un modelo que genera correos persuasivos no distingue por sí mismo entre un envío legítimo y un fraude. Pedir una IA infalible es tan irreal como exigir que un ordenador no pueda usarse con fines dañinos.
De ahí su receta: reforzar lo que ya funciona. Prioriza ciberseguridad y bioprotección, y acompáñalo con regulaciones concretas. Vas a poder aterrizarlo en medidas muy claras que no dependen de promesas futuras de “IA perfecta”.
También hay dudas sobre si la inteligencia artificial no superará a especialistas humanos en tareas como predicción o persuasión. Los autores responden que los precedentes sirven para planificar sin exagerar, y que tratar la inteligencia artificial como tecnología normal permite diseñar políticas sensatas sin esperar superinteligencias inminentes ni colapsos inevitables.
Conviene recordar de dónde venimos. Las grandes transformaciones tecnológicas se expanden cuando cambian procesos, incentivos y normas. Ese mismo guion se aplica aquí: menos épica, más obra de pico y pala. Según los autores, esta posición “intermedia” refleja lo que intuye buena parte de la comunidad técnica, aunque tenga menos foco mediático.
También te puede interesar:“Un Abogado Dejará de Ser Necesario”: la Frase de José Elías que Enciende el Debate sobre IADirectora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.