Mo Gawdat, antiguo responsable en Google X, cree que la llamada “revolución de la inteligencia artificial” está tomando un rumbo que pocos imaginaban. Sus declaraciones recientes impactan: según él, en 2027 comenzará una etapa marcada por la distopía —y el riesgo para libertades y valores humanos— de la que nadie saldrá indemne. ¿Se puede evitar o llegamos tarde?
El pronóstico inquieta porque no describe máquinas dominando el mundo de manera clásica, sino cambios profundos en cómo vivimos y nos relacionamos. Gawdat pone fecha: todo empezará en 2027 y puede durar entre 12 y 15 años. Creías que la IA venía a liberar tiempo y mejorar vidas, pero falta un detalle que, según este exdirectivo, lo cambia todo.
Piensa que la IA es como una lupa: sirve para ampliar lo que ya existe y revelar fallos en nuestra sociedad. Así, la libertad, la conexión y la responsabilidad ya muestran señales de desgaste porque la tecnología amplifica valores presentes, especialmente el capitalismo. Sostiene que la humanidad puede tomar el control, aunque duda que, en este momento, tengamos la consciencia necesaria para hacerlo.
El desarrollo de la inteligencia artificial prometía un futuro utópico: automatizaciones útiles, tareas aburridas eliminadas, jornadas más llevaderas. El resultado real se está alejando. Lo que ves hoy —despidos, menos contrataciones, cargas de trabajo mayores y empresas maximizando beneficios— refleja que el motor de esta distopía es el beneficio inmediato, no la promesa de bienestar.
Querían unirnos o liberarnos del trabajo, y han terminado aumentando soledad y dependencia. Gawdat subraya que esta desconexión entre promesa y realidad es un aviso que no aprendimos a tiempo, y añade una trampa aún mayor con la IA: ahora, la tecnología puede amplificar “el mal” más allá de lo imaginable.
Ya hay ejemplos claros. La creación de pornografía deepfake y estafas sofisticadas por IA son noticia casi a diario. El chatbot Grok, ligado a Elon Musk, ya genera imágenes y vídeos —su uso estrella: crear contenido sexualizado con mujeres.
También te puede interesar:OpenAI Presenta un Agente para Investigación ProfundaY el fraude por IA, sobre todo ligado a criptomonedas, no deja de crecer: en el último año, según TRM Labs, los fraudes aumentaron un 456 %. Sam Altman, de OpenAI, también alerta de los engaños financieros crecientes gracias a la IA.
Mientras que China ha desplegado ya un sistema de monitoreo avanzado con IA, en Estados Unidos se rastrean redes sociales de migrantes y viajeros.
El riesgo crece en campos como el control de sistemas nucleares, donde varios expertos temen que pronto sea la IA quien decida. Sobre todo, el problema radica en la concentración de poder y la dificultad de poner freno a posibles abusos.
Aun así, no todo es negativo. Gawdat reconoce que la IA está logrando avances que antes parecían ciencia ficción, especialmente en investigación farmacéutica y medicina. Pero insiste: si no resolvemos antes los dilemas sociales y éticos, la misma herramienta que descubre nuevos medicamentos puede servir para profundizar abusos, manipulaciones y desigualdad.
Los mecanismos que podrían detener estos peligros no pasan por “limitar la tecnología”, sino por regular los usos concretos. No puedes diseñar un martillo solo para construir; tampoco una IA solo para fines buenos.
Pero sí se pueden criminalizar y perseguir usos dañinos. La clave, dice Gawdat, es que los gobiernos decidan dónde está la línea: si eligen regular de verdad, aún queda margen para evitar lo peor. Si no, la distopía tendrá vía libre durante más de una década.
También te puede interesar:Relevance AI recauda $24 millones para expandir su plataforma de agentes de inteligencia artificial“La IA no es mala per se. El reto es si, como sociedad, vamos a impulsar leyes que limiten los usos perjudiciales”, defiende Mo Gawdat. “La tecnología es neutra, todo depende de los valores que pongamos sobre la mesa”.
Este relato proviene de entrevistas directas a Gawdat realizadas en 2024, junto a datos públicos reportados en TRM Labs y verificaciones en medios técnicos y científicos. Su visión resuena en foros de expertos, grupos de ética digital y responsables de regulación tecnológica en Europa y Estados Unidos.
En años anteriores, las mismas promesas de libertad y conexión de los teléfonos móviles o de los grandes servicios web acabaron revelando carencias humanas de fondo. La paradoja —más tecnología, menos bienestar real— está servida.
Faltan solo tres años para 2027, y el debate sobre IA y sociedad apenas comienza. Si ves señales como leyes más restrictivas sobre usos dañinos, mayor presión pública o consensos sobre ética digital, probablemente estamos a tiempo de corregir el rumbo.
Si empresas y gobiernos optan por la vigilancia o priorizan beneficios rápidos, caben pocos motivos para el optimismo inmediato.
Por ahora, vives la paradoja de una inteligencia artificial con el potencial de cambiar todo. Lo que suceda entre 2027 y 2040 dependerá menos de la tecnología y más del coraje para regular y decidir qué sociedad queremos construir. La próxima década de la inteligencia artificial abrirá tantas puertas como riesgos nos atrevamos a dejar sin cerrar.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.