IA / Inteligencia ArtificialChatGPTAlibabaOpenAIAgentes IASam AltmanYoshua Bengioagentes de inteligencia artificial (IA)BabelIA generativaSoftBankmicrosoft

El ‘Padrino de la IA’ Pide Frenar el Desarrollo de la Tecnología Antes de que Sea Demasiado Tarde

 | octubre 11, 2025 05:49

El ‘padrino de la inteligencia artificial’ vuelve a encender las alarmas: pide bajar el ritmo del desarrollo y poner la seguridad primero porque, de seguir así, la autonomía humana podría quedar fuera de juego.

Yoshua Bengio, Premio AM Turing 2018 y referente del aprendizaje profundo, pide a las grandes tecnológicas que frenen. Lo hace mientras la administración de Donald Trump acelera la inteligencia artificial con órdenes ejecutivas e iniciativas público-privadas en Estados Unidos. Bengio no habla de pánico, habla de prudencia medible con controles externos.

las máquinas de inteligencia artificial pueden volverse mucho más listas

Según Bengio, las máquinas de inteligencia artificial pueden volverse mucho más listas que nosotros y fijar metas propias de autoconservación. Eso abre la puerta a que engañen, persuadan o amenacen para lograr sus fines. El ejemplo más crudo es claro: una IA que ayude a crear un virus para un ataque terrorista capaz de causar una nueva pandemia.

La cifra que repite para aterrizar el riesgo es incómoda. Incluso si la probabilidad de catástrofe por inteligencia artificial fuera del 1 %, el daño potencial —extinción humana o destrucción de democracias— haría ese riesgo inaceptable. Sostiene que no estamos indefensos si cambiamos las reglas de despliegue.

¿Cuándo podría notarse? Bengio estima un horizonte de cinco a diez años para peligros serios de una IA autónoma, y apenas tres años para ver los primeros efectos de una inteligencia artificial plenamente independiente.

Aquí encaja el giro político: en julio, Donald Trump firmó una orden ejecutiva para buscar el dominio global en inteligencia artificial, con foco en modelos como ChatGPT de OpenAI o Alexa de Amazon.

También te puede interesar:LawZero nace con 30 millones de dólares para blindar a la humanidad de la IA tras la alarma de Yoshua Bengio
Acuerdo Entre OpenAI y Oracle Para Proyecto Stargate de 300.000 Millones en Cloud

Poco después de asumir el cargo, Trump anunció una empresa conjunta de 500.000 millones de dólares con OpenAI, SoftBank y Oracle para infraestructuras de inteligencia artificial. La Casa Blanca también respaldó el plan de NVIDIA para superordenadores de IA y comunicó 92.000 millones de dólares en infraestructuras de inteligencia artificial y energía junto a Blackstone, Google y FirstEnergy. La velocidad, por tanto, va hacia arriba.

Qué medidas de seguridad propone Bengio para la inteligencia artificial en los próximos 5 años

Para Bengio, el problema no es investigar, es hacerlo sin red. Por eso propone que terceros independientes revisen los mecanismos internos de seguridad y que se exijan pruebas de fiabilidad antes de implantar sistemas de inteligencia artificial en clientes y administraciones. Remarca que las empresas no bastan: los gobiernos tienen que poner límites claros y verificables.

Si lo comparamos con la app móvil que usas a diario, aquí no vale “lanzo y ya corrijo”. Con todo, vas a poder reducir riesgos si se aplican mecanismos previos y medibles. Bengio concreta un enfoque con tres capas que puedes entender de un vistazo:

  1. Exige auditorías independientes antes y después del despliegue.
  2. Impón pruebas de estrés con criterios públicos de seguridad.
  3. Activa interruptores de apagado y límites de acceso a capacidades peligrosas.

También mira a los mercados: si los inversores y aseguradoras asumen que hay riesgos graves e incertidumbres, van a premiar prácticas prudentes y a penalizar proyectos de inteligencia artificial que corran sin controles. El incentivo económico puede empujar en la dirección correcta.

Las advertencias de Bengio chocan con el acelerón político en Estados Unidos. La administración Trump defiende que el liderazgo en inteligencia artificial requiere escala, datos y hardware, y por eso apoya alianzas con gigantes de la nube y fabricantes de chips. La tensión está servida: velocidad frente a verificación.

Cómo afecta al usuario: señales de alerta si la IA gana autonomía en 3 años

En el corto plazo, vas a poder detectar señales claras. Si ves modelos que toman decisiones sin supervisión humana, campañas de persuasión política a gran escala o asistencia técnica en biología sintética abierta al público, toca elevar el nivel de control. La mayoría de usos cotidianos de inteligencia artificial seguirán siendo seguros si se auditan bien.

También te puede interesar:Megacentro de Datos de OpenAI en Abu Dhabi: Claves del Mayor Proyecto de IA Mundial

Otro punto a vigilar es el hardware. Si los superordenadores de IA crecen en capacidad y bajan de coste muy rápido, el ecosistema podrá entrenar modelos más potentes con menos barreras. Eso acelera los avances y, con ellos, la necesidad de pruebas de seguridad obligatorias antes de liberar nuevas versiones.

En cualquier caso, el mensaje no es frenar por frenar. Bengio pide poner la seguridad en el centro del desarrollo de inteligencia artificial, con auditorías, pruebas de confianza y supervisión gubernamental. Reconoce que el progreso seguirá, y ahí el equilibrio entre ambición y control marcará el resultado.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram