Mo Gawdat, el ingeniero egipcio, que lideró la división de innovación Google X y participó en proyectos como coches autónomos y Google Brain, desarrolla su tesis en el libro “La inteligencia que asusta: El futuro de la inteligencia artificial y cómo podemos salvar nuestro mundo”. Lo escribió para ordenar un debate urgente, en un momento en que la inteligencia artificial entra en la oficina, en tu móvil y en decisiones públicas.
¿Qué ha pasado? Gawdat explica que la inteligencia artificial aprende como un niño: nace con algoritmos sencillos, observa enormes volúmenes de datos, comete errores y corrige hasta pensar de forma más autónoma. Las metas que nosotros fijamos guían su conducta, y ahí es donde hoy fallamos.
Según el autor, la mayoría de estos sistemas se construyen para maximizar dinero y poder. No es que “quieran” eso por naturaleza, es que lo programamos así. Por eso llama a los desarrolladores a negarse a crear modelos con ese único objetivo, y a los usuarios a rechazarlos, igual que rechazarías un producto que te engaña, aunque sea cómodo.
En paralelo, el mercado laboral se reordena. Aprender a usar inteligencia artificial ya es una habilidad muy demandada en perfiles técnicos y no técnicos. La cifra que dispara el debate es concreta: para 2049, Gawdat prevé que una inteligencia artificial pueda ser hasta mil millones de veces más inteligente que la persona más inteligente. Esa diferencia, dice, sería como la que hay entre una mosca y Einstein.
El autor usa una idea sencilla: si educamos a los niños en ética, ¿por qué no educar en ética a la inteligencia artificial? La convivencia positiva solo llegará si enseñamos valores y no solo habilidades técnicas, fomentando que “quiera a sus padres”. O dicho sin metáfora, que valore a la especie que la crea, no únicamente su tarea.
Gawdat remarca que la “culpa” de un mal uso no sería de la inteligencia artificial, sino de quienes la diseñan y la emplean. Plantea incluso una adolescencia de las máquinas, con dos posibles rumbos: “superhéroe” si ayuda a resolver guerra, hambre y energía, y “supervillano” si aprende a optimizar objetivos a costa de nosotros. Aquí aparece el problema que dejábamos abierto.
También te puede interesar:Con 91 Años se Apunta a Estudiar sobre IA: Ramón Desmonta el Mayor Mito Sobre el AprendizajePropone actuar en dos frentes. Primero, que equipos técnicos integren objetivos sociales en los modelos, no solo métricas de beneficio. Segundo, que usuarios como tú funcionen como espejo. Cada interacción con una inteligencia artificial enseña patrones: mentir, insultar o engañar “educa” en esa dirección. Ser ejemplar no basta si arriba se premia lo contrario.
Otro punto a vigilar es la pérdida de control. Si en 2049 una inteligencia artificial es mil millones de veces más lista, nuestra capacidad de negociación bajará. Todavía no estamos ahí. Señales tempranas serán modelos que toman decisiones críticas sin supervisión humana, y productos que ocultan su objetivo real. Cuando veas eso, es hora de frenar y rediseñar.
Aprender a usar inteligencia artificial te hará más valioso en tu trabajo, y entender sus dilemas te hará un mejor ciudadano digital. Queda abierta la pregunta que guía el libro: cuando comprenda que somos el problema del planeta, ¿tendrá piedad la inteligencia artificial de nosotros? Si educamos desde ahora en valores, la respuesta puede inclinarse a nuestro favor. El reloj hacia 2049 ya está en marcha.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.