Un puñado de directivos en Silicon Valley está tomando decisiones sobre inteligencia artificial que condicionan tu trabajo, tu información y tu factura de la luz. En julio, la Casa Blanca presentó el “America’s AI Action Plan” y movió piezas clave lejos del foco público.
El nuevo plan estadounidense propone recortar referencias a desinformación, diversidad, equidad, inclusión y clima en el marco de riesgos de NIST, y prioriza acelerar infraestructura y suministro energético para centros de datos. EE. UU. trata la inteligencia artificial como una carrera que hay que “ganar”, no como un sistema social que gobernar. La velocidad tiene un coste que no se está contando entero.
En Europa, la situación es distinta. La Ley de Inteligencia Artificial de la Unión Europea, en vigor desde agosto y con obligaciones que se desplegarán hasta 2026, pone primero las garantías. Aquí, las instituciones democráticas definen usos, requisitos y responsabilidades antes de escalar.
Pocas empresas mandan sobre el cómputo, los modelos y su distribución. Nvidia controla aproximadamente el 90% de los aceleradores de IA, y los gigantes tecnológicos reservan capacidad con años de antelación. Esta escasez decide quién investiga y quién paga peaje por entrar. El debate sobre acceso equitativo apenas asoma.
La transparencia se encoge. Informes técnicos como el de GPT-4 omitieron datos esenciales sobre entrenamiento, tamaño o cómputo, alegando competencia y seguridad. Te piden confianza ciega en cajas negras que ya gestionan contenido, contratos y diagnósticos. El caso de la voz Sky —anunciada por OpenAI y retirada tras polémicas por su parecido con una actriz— evidencia que decisiones culturales de gran impacto recaen en equipos corporativos muy pequeños, no en reguladores o tribunales.
El crecimiento de la inteligencia artificial también pesa en el planeta. Google reconoce un aumento del 48% de sus emisiones de gases de efecto invernadero desde 2019 ligado a centros de datos para IA, y usó 6.100 millones de galones de agua en 2023 para refrigeración. Cada consulta a un modelo deja huella.
También te puede interesar:Forbes Adelanta las Profesiones de la IA que Arrasarán en 2030… y no Son las Que ImaginasTodo esto produce un déficit democrático: tú actúas como espectador que reacciona a hechos consumados. La estrategia tecnológica nacional se decide con criterios de eficiencia e ingresos que tienen sentido para el accionista, pero erosionan la democracia cuando guían compras públicas, educación o sanidad. Falta un control ciudadano claro y, lo que es peor, faltan datos verificables para ejercerlo.
Con todo, hay una salida que no pasa por frenar la inteligencia artificial, sino por decidir cómo y bajo qué condiciones se despliega. Trátala como infraestructura: con recursos públicos y acceso abierto, no solo con gasto privado.
Primero, condiciona el dinero público a luz y taquígrafos. Si un proveedor no divulga datos de entrenamiento, controles de salida, pruebas independientes superadas y registros detallados de energía y agua, no se contrata en administraciones ni centros educativos. No es una traba a la innovación, es disciplina de mercado alineada con valores públicos. Vas a poder comparar, y por fin elegir con criterio.
Segundo, separa capas tecnológicas para evitar el “lock-in”. Los proveedores de nube no deberían forzarte por defecto a su propio hardware para ejecutar modelos. Exige interoperabilidad y portabilidad de los datos como herramientas básicas de competencia en un sector dominado por tres actores. Esta portabilidad debe ser real en costes, formatos y plazos, no solo un PDF en la web.
Para sistemas de gran escala, las fichas de producto no bastan. Se necesitan auditorías externas que validen datos, métricas y salvaguardas. La transparencia debe venir acompañada de consecuencias: si el modelo falla en pruebas independientes, se corrige o se suspende su uso en contextos sensibles. Como en aviación o medicina, ambición y contención pueden convivir.
El reto no es ralentizar la inteligencia artificial, sino decidir de forma pública qué IA quieres y bajo qué condiciones. Estados Unidos ya combinó ambición y freno en aviación, medicina y finanzas, y con la IA no debería ser distinto. Dejar estas decisiones a unos pocos implica aceptar un futuro tecnológico construido para ti, pero no por ti. Reescribirlo después costará más de lo que estamos dispuestos a admitir.
También te puede interesar:Tres de Cada Cuatro Empresas ya Usan IA… y han Logrado Reducir Gastos Hasta un 25%Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.