Los estados de Estados Unidos quieren aprobar sus propias leyes para controlar y vigilar la inteligencia artificial, pero desde la Casa Blanca se intenta frenarles el paso. Esto es, lo que ha ocurrido con la administración Trump y su idea de bloquear las normas estatales sobre IA. El resultado, de momento, es una batalla política y legal que afecta tanto a la regulación como a las grandes empresas tecnológicas.
El primer punto clave es que Trump defiende que la industria de la IA necesita un estándar federal único. En una publicación en redes sociales, explicó que no quiere un “mosaico” con 50 tipos distintos de leyes, una por cada estado. Según esta visión, las empresas tecnológicas deberían seguir las mismas reglas en todo el país para evitar líos legales y costes extra de adaptación.

Si lo piensas desde el punto de vista de una empresa de IA, tener una sola norma puede hacer más sencillo lanzar productos, entrenar modelos y ofrecer servicios en línea sin revisar cada ley local.
Esta idea también significa quitar poder a los estados, que pierden margen para proteger a sus propios ciudadanos frente a riesgos de la inteligencia artificial, como usos abusivos de datos, desinformación o sistemas de vigilancia.
La propuesta más agresiva llegó con el famoso proyecto de presupuesto bautizado como “Big Beautiful Bill”. En ese texto se incluyó una cláusula muy concreta: un veto de diez años a cualquier intento de regulación estatal de la IA. Es decir, los estados no podían aprobar ni hacer cumplir nuevas leyes sobre inteligencia artificial durante una década completa.

Este veto convertía, de forma práctica, al Gobierno federal en el único que podía marcar reglas sobre IA en Estados Unidos. Durante esos diez años, el Congreso y la Casa Blanca tendrían el control casi total del marco legal, y los estados quedarían atados de manos. Esa jugada chocó frontalmente con muchos senadores, que vieron esta moratoria como un ataque directo a la autonomía estatal.
La reacción en el Senado fue muy clara. Cuando tocó votar el “Big Beautiful Bill”, casi todos los senadores se posicionaron en contra de esa parte relacionada con la moratoria a las leyes estatales de IA. El resultado fue un mensaje contundente: la cámara eliminó el veto de diez años por una votación de 99 a 1.
Este dato es importante, porque muestra un rechazo prácticamente unánime a bloquear la regulación de la inteligencia artificial desde los estados. Da igual si eran demócratas o republicanos, la mayoría consideró excesivo impedir que los gobiernos estatales puedan legislar sobre un tema tan sensible.
Tras el golpe del Senado, la administración buscó otra vía. En lugar de depender del Congreso, se empezó a preparar una orden ejecutiva desde la Casa Blanca. Esta herramienta da al presidente margen para marcar directrices sin pasar por un debate parlamentario largo, y en este caso el objetivo seguía siendo frenar la regulación estatal de la inteligencia artificial.

Según filtraciones previas, esa orden ejecutiva se diseñó para reconfigurar el mismo plan de fondo: evitar un mapa variado de normas sobre IA en los distintos estados y mantener la presión para que la industria tenga un marco regulatorio más centralizado. Con todo, el enfoque ya no era un veto directo de diez años, sino una estrategia judicial y financiera mucho más agresiva.
El corazón de esa orden ejecutiva era la creación de un AI Litigation Task Force, una fuerza de tarea especializada en litigios sobre inteligencia artificial. Esta unidad, ligada a la administración Trump, tendría como misión ir a los tribunales a pelear contra las leyes estatales de IA que se considerasen problemáticas o demasiado duras para la industria.

En la práctica, este grupo legal estaría dedicado a impugnar regulaciones estatales una tras otra, buscando sentencias que limiten la capacidad de los estados para marcar reglas propias sobre la inteligencia artificial. Para ti, como observador, esto significaría ver una oleada de demandas, recursos y batallas judiciales en varios estados a la vez, todo coordinado desde el Gobierno federal.
El AI Litigation Task Force no solo se apoyaría en los tribunales. En la propuesta de orden ejecutiva se planteaba una herramienta de presión extra: la amenaza de retirar la financiación federal para proyectos de banda ancha a aquellos estados que insistieran en mantener o aprobar leyes de IA conflictivas.
Con esta medida, la Casa Blanca podría decir a un estado algo así como: si continúas con esa regulación de inteligencia artificial, corres el riesgo de perder dinero para desplegar internet de alta velocidad. Esta forma de presión económica es muy potente, porque muchos estados dependen de esas ayudas para mejorar su infraestructura digital y conectar zonas rurales.
Aunque el plan llegó a un punto avanzado de redacción, Reuters ha informado de que la supuesta orden ejecutiva para frenar las regulaciones estatales de IA está, por ahora, en pausa. Esto significa que no se ha firmado y que su aplicación se ha detenido, al menos de momento, en medio de dudas políticas y legales.
El simple hecho de que se haya preparado una orden ejecutiva de este tipo ya marca un precedente. Muestra hasta qué punto la administración está dispuesta a usar herramientas presidenciales para controlar la regulación de la inteligencia artificial y para condicionar las decisiones de los estados en temas tecnológicos clave, como la seguridad de sistemas de IA o la protección de datos.
Si finalmente esta orden ejecutiva llegara a firmarse, todo apunta a que se enfrentaría a una oposición política intensa. Por un lado, muchos demócratas ven necesario que los estados puedan reaccionar rápido ante los riesgos de la inteligencia artificial, sin esperar a que el Congreso apruebe grandes leyes federales que pueden tardar años.
Por otro lado, parte del propio Partido Republicano también ha mostrado su rechazo a limitar tanto la autonomía estatal. Ya criticaron la moratoria de diez años incluida en el “Big Beautiful Bill”, y es razonable pensar que volverían a alzar la voz contra una orden ejecutiva que ataque de forma frontal la capacidad de los estados para aprobar regulaciones de IA ajustadas a su realidad local.
Un detalle que pesa mucho en este debate es que las críticas a la estrategia de Trump no vienen solo de la oposición. Varios republicanos, defensores habituales del poder de los estados frente a Washington, ya se mostraron incómodos con la idea de bloquear durante diez años cualquier nueva ley estatal sobre inteligencia artificial.
Para estos cargos, la coherencia pasa por dejar que cada estado experimente con su propia normativa, pruebe mecanismos de seguridad para la IA y adapte medidas según las necesidades de sus ciudadanos. Esta visión choca con los intereses de parte de la industria, que ve en ese “mosaico” de 50 reglas diferentes una fuente de inseguridad jurídica y más gastos de cumplimiento normativo.
Todo este lío político no se entiende del todo sin mirar a Silicon Valley. La regulación de la inteligencia artificial genera un choque fuerte dentro de la propia industria tecnológica, con empresas y figuras muy influyentes en posiciones enfrentadas. No hay una única postura del sector tech, sino al menos dos grandes bloques con visiones distintas.

Por un lado, hay ejecutivos y asesores, muchos de ellos cercanos a la administración Trump, que ven las leyes de seguridad en IA como un freno a la innovación y a la competitividad frente a otros países. A su juicio, demasiada regulación estatal puede espantar inversión, complicar el desarrollo de modelos avanzados y romper el mercado nacional de servicios de IA.
Dentro de este debate han aparecido críticas específicas contra compañías concretas. Algunas figuras del sector, enlazadas política o ideológicamente con Trump, han cargado contra empresas como Anthropic por apoyar propuestas de ley de seguridad en inteligencia artificial. Para estos críticos, respaldar regulaciones estrictas es ir contra el interés de la industria estadounidense.
Frente a esa visión, empresas como Anthropic sostienen que sin normas claras y medidas de seguridad, la inteligencia artificial puede generar daños importantes, desde sistemas que discriminan en procesos de selección hasta modelos que facilitan campañas masivas de desinformación. Según este enfoque, regular ahora es una forma de dar confianza a usuarios, gobiernos y clientes empresariales.
Un ejemplo concreto es el proyecto de ley SB 53 de California, considerado una de las normas de seguridad en IA más relevantes en Estados Unidos. Esta propuesta busca marcar obligaciones claras para ciertas empresas que desarrollan o despliegan sistemas de inteligencia artificial de alto impacto, especialmente los que pueden afectar a la seguridad, la privacidad o los derechos civiles.

Al respaldar el SB 53, compañías como Anthropic se colocan en el lado que pide reglas más exigentes y transparencia en el mundo de la inteligencia artificial. Al mismo tiempo, este tipo de proyectos estatales son justo el tipo de leyes que un AI Litigation Task Force podría intentar tumbar en los tribunales, lo que explica la tensión entre la Casa Blanca, los estados y la industria de Silicon Valley.
Todo este pulso entre la Casa Blanca de Trump, el Senado, los estados y las grandes tecnológicas deja claro que la regulación de la inteligencia artificial no es solo una cuestión técnica, sino también una batalla política y económica.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.