Un nuevo proyecto de ley en Estados Unidos podría cambiar radicalmente el panorama de la regulación de la inteligencia artificial durante los próximos diez años. Imagina que los gobiernos estatales y locales no puedan aprobar ni aplicar normas para controlar modelos o sistemas automatizados de IA.
Esto es justo lo que plantea la llamada “moratoria de IA”, impulsada en el Senado por Ted Cruz y otros líderes republicanos. Mientras crecen las voces a favor y en contra, el debate gira en torno a quién debe decidir cómo se usa la IA, con implicaciones directas para tus derechos y la innovación tecnológica.
La moratoria de IA es una propuesta legislativa que impediría a los estados estadounidenses regular la inteligencia artificial por una década. Con esta medida, cualquier ley estatal sobre IA quedaría bloqueada, permitiendo solo la regulación federal, que hoy en día aún no existe.
Quienes la defienden consideran que el mosaico actual de leyes estatales supone un obstáculo para que Estados Unidos desarrolle y mantenga el liderazgo mundial en tecnología. Destacan que el avance de la IA es tan veloz, que tener normativas diferentes por estado podría dificultar la competencia directa, especialmente frente a China.
No obstante, para muchas personas, la pregunta real es: ¿quién protege a la ciudadanía si solo las grandes compañías pueden influir sobre cómo se regula la IA? Ahí radica la principal división en torno a esta propuesta.
Defensores como Sam Altman (CEO de OpenAI), Palmer Luckey (Anduril) y Marc Andreessen, aseguran que permitir regulaciones diferentes en cada estado acabaría ralentizando la innovación. Para ellos, tener que cumplir normas fragmentadas dificultaría especialmente el despliegue comercial y el desarrollo técnico rápido.
También te puede interesar:La Inteligencia Artificial en China Devalúa el Diseño Gráfico, Según Profesionales del SectorChris Lehane, responsable directivo en OpenAI, insiste en que el actual escenario regulatorio, con reglas estatales dispares, no funciona ni facilita la posición de liderazgo de Estados Unidos respecto a China. Según esta visión, una sola ley federal ofrecería claridad, mientras que la suma de normas contradictorias dificultaría inversiones y lanzamientos de nuevos servicios.
No solo los grandes nombres de la tecnología han respaldado la moratoria. Importantes inversores del sector, como Marc Andreessen, también argumentan que, si hay que negociar en paralelo con 50 autoridades estatales, el desarrollo de la IA se haría mucho más caro y complejo.
Elon Musk ha alertado en ocasiones anteriores sobre el peligro de no avanzar lo bastante rápido frente a China, una opinión compartida por varios ejecutivos, aunque esta vez Musk no se ha manifestado directamente sobre el texto en debate.
La gran mayoría de los demócratas, varios republicanos y activistas por los derechos de los consumidores consideran la moratoria de IA peligrosamente desequilibrada. Argumentan que dejaría a las grandes tecnológicas operar casi sin supervisión ni obligación de rendir cuentas, mientras bloquea normas locales destinadas a protegerte frente a abusos o riesgos concretos de la IA.
Un buen ejemplo es la ley AB 2013 de California, que obliga a las empresas a desvelar qué datos usaron para entrenar sus modelos de IA. Hay otra norma importante, la ELVIS Act en Tennessee, pensada para proteger a músicos y creadores de imitaciones falsas generadas por IA. Si la moratoria sale adelante, leyes como estas pasarían a ser papel mojado.
El problema es que actualmente el Congreso federal aún no ha aprobado ninguna ley específica para regular la inteligencia artificial. Así, si los estados pierden su capacidad legislativa, habría un vacío normativo preocupante.
También te puede interesar:OpenAI Presenta un Agente para Investigación ProfundaNathan Calvin, de la organización sin ánimo de lucro Encode, subraya que sin una ley federal robusta, quitar a los estados todo poder normativo solo beneficia a las grandes empresas, dejándolas sin presión alguna para negociar ni implementar salvaguardias.
Dario Amodei, CEO de Anthropic, reconoce que la IA podría transformar el mundo a gran velocidad y que una moratoria de diez años es “demasiado radical”. En su lugar, propone que el gobierno colabore con la industria para crear estándares transparentes sobre funcionamiento y límites de los modelos, en lugar de prohibir directamente el control estatal.
La oposición reúne a sindicatos, entidades de seguridad en IA, asociaciones de consumidores y varios gobernadores republicanos. Un grupo de 17 gobernadores ha pedido formalmente eliminar la moratoria porque, según ellos, ataca directamente la autonomía de los estados y debilita su papel tradicional en la protección de los ciudadanos.
Senadores republicanos como Josh Hawley y Marsha Blackburn han mostrado rechazo frontal: defienden la capacidad de los estados para actuar como “laboratorios legislativos”, innovando en protección civil contra fraudes, discriminación, deepfakes o invasiones de privacidad, problemas que surgen ya cada día con la expansión de la IA.
Si analizamos la aplicación real, la moratoria podría cancelar normas ya aprobadas y proyectos de ley estatales pioneros. Entre los casos más destacados se encuentran:
La organización Public Citizen recuerda que existen muchas coincidencias entre las normas estatales ya aplicadas, lo que la industria sostiene que permitiría a las empresas de IA adaptarse mejor, en lugar de complicar su labor.
También te puede interesar:Nueva York Pone Límites a la IA con Nueva Ley: Multas Millonarias y Reglas para OpenAI y Google¿De verdad afectan tanto las distintas normativas autonómicas a la innovación y a las grandes compañías? Aunque los defensores de la moratoria aseguran que sí, ni OpenAI, Meta, Google, Amazon ni Apple han respondido públicamente si alguna ley estatal les ha bloqueado lanzamientos relevantes o les ha supuesto un freno real.
Activistas como Emily Peterson-Cassin argumentan que las grandes empresas ya cumplen con regulaciones estatales en otros sectores, y que el argumento de la fragmentación se repite para evitar controles, más que por dificultades técnicas reales.
En la práctica, la inmensa mayoría de normas autonómicas de IA son acotadas y se centran en evitar riesgos concretos: fraudes automatizados, deepfakes, sesgos en contratación y crédito, invasiones de privacidad o la manipulación de votos. También incluyen reglas de transparencia y deberes de informar sobre cómo funcionan los algoritmos.
Un aspecto especialmente polémico de la moratoria es que condiciona la recepción de fondos federales para infraestructuras de banda ancha a la renuncia estatal a legislar sobre IA. Ted Cruz ligó inicialmente toda la financiación del programa BEAD (Equidad de Acceso y Despliegue de Banda Ancha, dotado con 42.000 millones de dólares) al respeto de la moratoria, lo que podría dejar fuera proyectos ya comprometidos. Tras una revisión, la obligación se aplicó solo a 500 millones de dólares adicionales, aunque la redacción sigue generando dudas entre senadores.
Maria Cantwell ha criticado abiertamente esta estrategia por obligar a los estados a elegir entre expandir la banda ancha o proteger a su gente frente a los riesgos de la inteligencia artificial. La propia congresista Marjorie Taylor Greene ha amenazado con votar en contra de los presupuestos si la moratoria no se elimina del paquete legislativo.
El futuro del proyecto se mantiene en el aire. Tras superar rondas iniciales, la inclusión de la moratoria en el gran paquete legislativo sigue atascada, y estaba prevista una votación definitiva para el sábado, en la conocida como “vote-a-rama”. Hasta última hora, las diversas enmiendas podrían modificar o eliminar la moratoria, pero los debates aún están abiertos y las posiciones polarizadas.
También te puede interesar:California Quiere Regular la Inteligencia Artificial: Nuevas Propuestas y Desafíos para TransparenciaLíderes como Cruz y Thune insisten en que cada estadounidense debe opinar sobre el destino de la IA, y que un enfoque gubernamental ligero facilita el desarrollo y la innovación. No obstante, muchos republicanos piensan que ir tan lejos como para romper con la tradición de autonomía estatal por proteger los intereses empresariales es “una jugada arriesgada”.
Según una reciente encuesta de Pew Research, el 60% de la ciudadanía adulta en EEUU y el 56% de los expertos en IA sienten que el gobierno no regula lo suficiente la inteligencia artificial.
Existe una desconfianza clara en la capacidad tanto del sector público como de las grandes tecnológicas para vigilar el impacto real de los nuevos avances. Estas cifras muestran que la demanda social de más control es alta (aunque la industria lo vea como un lastre para competir en el sector global).
En definitiva, esta posible moratoria de diez años pone en juego cómo se equilibra el desarrollo de la inteligencia artificial con los derechos y la seguridad de los ciudadanos. Mientras los impulsores orquestan una estrategia para limitar la regulación a nivel estatal, la oposición reclama una mayor responsabilidad y control sobre el uso de la tecnología.
Queda claro que la mayoría de las normas estatales sobre IA buscan protegerte ante deepfakes, fraudes y sesgos, aportando un marco de transparencia que ahora peligra. El debate en el Senado estadounidense, lejos de concluir, anticipa una pugna profunda entre innovación, competencia global y las garantías básicas que como usuario esperas frente al avance de la inteligencia artificial.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.