La RAISE Act supone un antes y un después para la regulación de inteligencia artificial en Estados Unidos. Con el apoyo de figuras clave como Geoffrey Hinton o Yoshua Bengio, esta normativa busca establecer, por primera vez, obligaciones legales de transparencia para los desarrolladores de IA más avanzados que operan en el mercado estadounidense, incluidas empresas chinas de primer nivel.
Esta ley, aprobada por el Parlamento del estado de Nueva York, quiere evitar que los modelos de IA de frontera de gigantes como OpenAI, Google y Anthropic puedan provocar escenarios catastróficos: desde más de 100 muertos o heridos hasta daños superiores al valor de 1.000 millones de dólares. ¿Cómo se ha llegado hasta aquí y por qué genera tanta polémica? Vamos a ver los detalles
Si has oído hablar del debate sobre los riesgos de la IA avanzada, seguro te preguntas en qué cambia la RAISE Act las reglas del juego. Esta ley no se dirige a cualquier startup, sino que aplica solo a los laboratorios cuyo entrenamiento de modelos haya superado los 100 millones de dólares en cómputo. Ese umbral significa que afecta a desarrollos más potentes que los actuales líderes del mercado.
De entrar en vigor, exigiría a las grandes tecnológicas que ofrecen IA en Nueva York publicar informes detallados sobre la seguridad y protección de sus modelos. Además, tendrían la obligación de informar sobre incidentes serios, como comportamientos anómalos detectados en los modelos o el robo de IA por parte de actores maliciosos.
Todo enfocado a evitar que inteligencia artificial sin control cause daños masivos.
No solo OpenAI, Google o Anthropic están en el punto de mira. Empresas chinas como DeepSeek y Alibaba también se verían reguladas, siempre que pongan sus sistemas a disposición de residentes neoyorquinos. La ley permitiría al fiscal general de Nueva York imponer sanciones civiles de hasta 30 millones de dólares a quienes incumplan con la transparencia y la seguridad exigidas.
También te puede interesar:LawZero nace con 30 millones de dólares para blindar a la humanidad de la IA tras la alarma de Yoshua BengioEste marco se aplica a laboratorios de IA tanto estadounidenses como internacionales, siempre y cuando superen el umbral de inversión computacional y operen en el estado. Así, la legislación se perfila como la más ambiciosa del país, respondiendo a críticas previas que acusaban a Estados Unidos de quedarse atrás frente a Europa en materia de controles estrictos.
¿Por qué ha conseguido avanzar la ley en Nueva York cuando California vetó una propuesta similar? La SB 1047 sirvió de referencia, pero los promotores de la RAISE Act han modificado el texto para evitar trabas injustificadas a startups e investigadores académicos.
El senador Andrew Gounardes —coautor del proyecto— lo dejó claro: han aprendido de los errores y han ajustado la norma para proteger la innovación.
Un dato relevante: a diferencia de algunas propuestas previas, la RAISE Act no exige la inclusión de un “interruptor de apagado” (“kill switch”) en los modelos avanzados ni responsabiliza a las empresas por daños derivados de ajustes tras el entrenamiento inicial. Con esto, buscan evitar paralizar el desarrollo o asustar a las empresas con un marco punitivo excesivo.
El debate sobre la nueva legislación está servido. Mientras Silicon Valley, con nombres como Andreessen Horowitz y Y Combinator, ha dirigido durísimas críticas y ha señalado los posibles efectos negativos sobre la capacidad de innovar, defensores como el senador Gounardes y el asambleísta Alex Bores insisten en que la ley no recorta las alas a pequeñas empresas ni a la investigación en IA.
Por otro lado, voces como la de Jack Clark, cofundador de Anthropic, muestran reservas y temen que la amplitud del alcance pueda suponer un lastre incluso para firmas que están muy enfocadas en seguridad, aunque los legisladores lo descartan.
Una pregunta que flota en el ambiente: ¿podrían actores como OpenAI y Google decidir directamente no ofrecer sus modelos más sofisticados en Nueva York para esquivar la regulación? Este argumento recuerda a lo sucedido en Europa, donde empresas han retirado servicios por exigencias regulatorias duras. Pero aquí aparecen matices.
Bores, coautor de la ley, considera que el “coste regulatorio es bastante bajo” y recalca que pocas empresas estarían dispuestas a renunciar a un mercado tan relevante como el neoyorquino.
Nueva York es el tercer estado en términos de PIB, y podría ser económicamente negativo abandonar la plaza por unas normas de transparencia y seguridad que, en opinión de los defensores, no son excesivas ni frenan el avance tecnológico.
Bores reconoce que podrían entrar en juego motivaciones políticas, más allá del puro interés económico. Lo cierto es que representantes del sector inversor tecnológico como Anjney Midha o entidades clave han reiterado su rechazo a este tipo de enfoques regulatorios, tanto en California como ahora en Nueva York. Todo refleja la tensión entre los que temen un retroceso y los que apuestan por reglas claras frente a la IA más potente.
Estas son las principales obligaciones para los laboratorios bajo la ley RAISE Act:
Por último, si estas condiciones no se cumplen, existe la posibilidad de recibir multas millonarias y quedar bajo el foco del fiscal general, lo que dota de fuerza al nuevo marco normativo.
El caso de la RAISE Act ejemplifica la dificultad de regular tecnologías tan cambiantes como la inteligencia artificial sin ahogar la creatividad ni permitir riesgos inaceptables. Las críticas apuntan tanto a la posible deslocalización de servicios —si las empresas deciden no ofrecer sus modelos más avanzados en Nueva York— como al temor de que Estados Unidos pierda posición frente a Asia o Europa.
Pese a los reproches, los defensores del nuevo marco advierten que “el tiempo para poner salvaguardas se agota rápido”, según Gounardes, y que los principales expertos del mundo consideran que los riesgos graves son “increíblemente probables” si no se actúa.
La ley, además, se inspira en lecciones aprendidas tras el veto de la SB 1047 californiana, buscando no caer en viejos errores y pulir los puntos más polémicos. Todo el sector tecnológico internacional está atento a esta decisión, porque definiría el nuevo estándar para la seguridad en modelos de inteligencia artificial en el siglo XXI.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.