La gobernadora de Nueva York, Kathy Hochul, acaba de firmar la RAISE Act, una ley que pone el foco en la seguridad de la inteligencia artificial y coloca al estado en el centro del mapa tecnológico de Estados Unidos. El movimiento llega en un momento en el que la regulación federal va muy lenta y los riesgos de la IA crecen cada mes.
La firma se ha producido en Albany, y convierte a Nueva York en el segundo estado del país, tras California, que aprueba una norma amplia sobre seguridad de IA. El texto salió del parlamento estatal en junio, pero desde entonces ha vivido una fuerte batalla con la industria tecnológica y con la propia oficina de Hochul.

Tras la aprobación inicial, la gobernadora propuso suavizar la RAISE Act después de recibir presiones de grandes empresas tecnológicas preocupadas por los requisitos y las multas.
Según avanzó el New York Times, Hochul llegó a un pacto silencioso: acepta firmar ahora la versión original, y a cambio los legisladores se comprometen a debatir sus cambios durante el próximo año. Es decir, la ley nace con fuerza, pero con una negociación pendiente.
Lo que ya es firme es el núcleo de la norma. La RAISE Act obliga a los grandes desarrolladores de inteligencia artificial a publicar información clara sobre sus protocolos de seguridad. Esto significa que vas a poder saber qué controles dicen tener para evitar usos peligrosos, fallos graves o filtraciones de datos. No se trata solo de promesas en notas de prensa, sino de informes oficiales registrados ante el estado.
La ley también exige que cualquier incidente de seguridad relacionado con sistemas de IA se notifique a las autoridades de Nueva York en un máximo de 72 horas. Ese plazo de tres días recuerda a las reglas que ya existen en ciberseguridad y busca evitar que un problema serio se oculte durante semanas. Quedará por ver qué considera cada empresa “incidente” y cuánto detalle ofrecen.
También te puede interesar:Nueva York Pone Límites a la IA con Nueva Ley: Multas Millonarias y Reglas para OpenAI y GoogleOtro punto importante es que la RAISE Act crea una nueva oficina específica dentro del Department of Financial Services de Nueva York para supervisar el desarrollo y el despliegue de la inteligencia artificial. Esta oficina será la encargada de revisar los informes, investigar incidentes y, si hace falta, imponer sanciones. La idea es construir un centro de control estable, no solo reaccionar cuando haya un escándalo.
Las sanciones no son simbólicas. Las compañías que no presenten los informes de seguridad exigidos, o que mientan en lo que declaran, se arriesgan a multas de hasta 1 millón de dólares. Si reinciden, el tope sube hasta los 3 millones por infracción posterior. Para un gigante de la IA esta cantidad no hunde el negocio, pero sí marca un coste real si decide ignorar la ley de forma sistemática.
Hochul ha explicado que la norma neoyorquina se apoya en la ley de seguridad de IA que el gobernador de California, Gavin Newsom, firmó hace poco. Su mensaje es que ambos estados, que concentran gran parte del sector tecnológico, crean juntos un estándar unificado para las grandes empresas. En sus palabras, quieren que el sector sepa que la “costumbre mínima” va a ser respetar unas reglas básicas de transparencia y seguridad.

El trasfondo político también pesa. La gobernadora ha insistido en que los estados se están moviendo mientras el gobierno federal sigue sin aprobar regulaciones “de sentido común” para proteger al público frente a la inteligencia artificial. Con todo, no todos en Washington comparten esa visión de reparto de poder, y ahí aparece el siguiente choque.
En paralelo a la firma de la RAISE Act, el presidente Donald Trump ha aprobado una orden ejecutiva que ordena a las agencias federales impugnar las leyes estatales sobre IA. El documento, defendido por su “zar de la IA”, David Sacks, busca que exista un único marco regulatorio para todo el país y recorta la capacidad de cada estado para fijar sus propias líneas rojas. Ya se anticipa que esa orden acabe en los tribunales, donde se decidirá quién manda más en este campo.
En el Senado estatal, uno de los impulsores de la RAISE Act ha sido Andrew Gounardes, que lleva tiempo pidiendo controles más estrictos para los sistemas de IA. Gounardes afirma que, pese a la presión de las grandes tecnológicas, han evitado que el proyecto se descarrile y han sacado adelante la que considera “la ley de seguridad de IA más fuerte del país”.
El asambleísta Alex Bores ha sido el otro gran nombre detrás del texto. Bores se ha encontrado ahora con una respuesta agresiva: un super PAC financiado por el fondo Andreessen Horowitz y por Greg Brockman, presidente de OpenAI, planea desafiarle políticamente. Su objetivo es castigar su papel en la tramitación de la ley. Él ha reaccionado con ironía, asegurando que agradece la “claridad” con la que se está planteando el ataque contra su escaño.
El sector tecnológico no está completamente alineado en contra. Grandes compañías de IA como OpenAI y Anthropic han mostrado su apoyo público a la ley de Nueva York. Ambas insisten en que estas normas son un paso intermedio y reclaman, al mismo tiempo, una legislación federal que marque reglas para todo el país. Se posicionan como actores responsables, pero quieren evitar un mosaico distinto en cada estado.
Sarah Heck, responsable de asuntos externos de Anthropic, lo ha resumido con una idea sencilla: el hecho de que dos de los estados más grandes del país hayan aprobado leyes de transparencia en IA demuestra que la seguridad ya no es opcional. Según sus palabras, este movimiento “debería inspirar al Congreso a ampliar estas medidas” desde Washington hacia el resto del territorio. Es un aviso de que la autorregulación ya no basta.
En los próximos meses vas a poder seguir tres frentes. El primero, interno a Nueva York: el gobierno estatal y las empresas tendrán que concretar qué tamaño de modelo y qué tipo de sistemas quedan alineados con la RAISE Act, cómo se definen los “grandes desarrolladores” y qué formato tendrán los informes de seguridad. Si ves guías técnicas publicadas por el Department of Financial Services, será la señal de que la ley entra en fase operativa.
El segundo frente será federal. La orden ejecutiva de Trump, que propone un único marco regulatorio, va a chocar previsiblemente con estados como Nueva York y California, que quieren mantener su capacidad para regular la inteligencia artificial. Cuando lleguen las primeras demandas, los jueces deberán decidir hasta dónde pueden llegar estas leyes estatales sin invadir el terreno de Washington. De esa batalla saldrá la forma real del mapa regulatorio estadounidense.
El tercer frente será político y de opinión pública. Si la RAISE Act consigue sacar a la luz fallos de seguridad, incidentes graves o informes poco serios, la presión social a favor de más regulación de IA crecerá rápido. Si, al contrario, se percibe como un freno burocrático sin resultados visibles, los opositores tendrán más argumentos. En cualquier caso, la norma ya ha colocado la seguridad de la inteligencia artificial en el centro del debate nacional.
Con la firma de Kathy Hochul, Nueva York se coloca junto a California como referente en regulación de inteligencia artificial, apostando por transparencia, plazos estrictos de notificación y multas claras para quien se salte las reglas. Ahora el foco se mueve a cómo se aplica en la práctica la RAISE Act, cómo responde la industria y qué hace el gobierno federal.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.