GrokOpenAIChatGPTElon MuskWeTransferGoogleAnthropicMetaNetflixDuckDuckGoNvidiaAdobe FireflySlackinteligencia artificialmicrosoft

Meta Se Niega a Firmar el Código de Buenas Prácticas de IA en la Unión Europea

 | julio 21, 2025 04:05

Meta ha decidido no firmar el nuevo código de buenas prácticas para desarrolladores de modelos de inteligencia artificial de propósito general que propone la Unión Europea, una postura que la distancia de otras compañías como Microsoft, OpenAI o Mistral AI, y que expone las tensiones entre Bruselas y Silicon Valley en torno a cómo regular el avance de la IA.

La decisión, comunicada por su jefe de asuntos globales, Joel Kaplan, llega a pocas semanas de que entre en vigor la regulación europea más ambiciosa hasta la fecha: el AI Act.

Por su parte, Meta argumenta que el marco voluntario planteado por la Comisión Europea introduce “incertidumbres legales para los desarrolladores de modelos” y medidas que “van mucho más allá del alcance del AI Act”.

Según Kaplan, Europa está “tomando el rumbo equivocado en materia de inteligencia artificial”, y advirtió que el exceso de regulación podría asfixiar la innovación y bloquear el desarrollo de modelos avanzados en el continente.

Qué propone el código de buenas prácticas de la UE

El código de buenas prácticas es un documento voluntario publicado el 10 de julio por la Comisión Europea, pensado como una guía para que las empresas empiecen a cumplir anticipadamente con el AI Act.

Su objetivo principal es reducir los riesgos asociados a los modelos de inteligencia artificial de propósito general (GPAI), es decir, sistemas que pueden utilizarse en múltiples dominios y que presentan riesgos sistémicos.

También te puede interesar:Meta fue sorprendida manipulando benchmarks de IA

Entre otras exigencias, el código establece:

  • Requisitos de transparencia sobre los datos utilizados para entrenar los modelos.
  • Obligaciones de documentación técnica que deben estar disponibles tanto para otros proveedores como para las autoridades regulatorias.
  • Cumplimiento de las leyes de copyright europeas, incluyendo la prohibición de entrenar modelos con contenido pirateado.
  • Evaluaciones de riesgo para modelos que superen determinados umbrales de capacidad computacional, como los 10²³ FLOPs (operaciones de coma flotante) en entrenamiento.

Además, los proveedores deberán implementar sistemas de monitoreo continuo, establecer protocolos de seguridad ante incidentes y reportar malfuncionamientos significativos, según lo establecido en el Artículo 3(49) del AI Act.

Más información sobre este marco puede consultarse en la nota oficial publicada por la Comisión.

Microsoft opta por colaborar

En contraste con la postura de Meta, Brad Smith, presidente de Microsoft, expresó su disposición a firmar el código. En declaraciones a Reuters, Smith sostuvo que “es probable que lo firmemos” y que consideran positivo el diálogo directo con la nueva Oficina de Inteligencia Artificial de la UE.

Aunque reconoció que aún deben revisar los documentos, remarcó que la empresa quiere encontrar “una forma de ser colaborativa”.

Esta diferencia en las respuestas evidencia una fractura creciente entre las grandes tecnológicas frente al enfoque europeo de regulación de IA. Mientras algunas, como OpenAI, Mistral y Microsoft, optan por colaborar y anticiparse a las obligaciones legales, otras como Meta se mantienen reticentes ante lo que consideran un exceso regulatorio que entorpece la innovación.

También te puede interesar:Meta Comenzará a Usar Casi Todos Tus Datos Para Entrenar Su IA: Así Puedes Protegerte

Una regulación con dientes: el AI Act

El AI Act, cuya entrada en vigor comienza el 2 de agosto de 2025, busca regular las aplicaciones de IA en función de su nivel de riesgo. Algunas prácticas estarán prohibidas de forma directa por ser consideradas de “riesgo inaceptable”, como la manipulación conductual o la puntuación social.

Otras estarán etiquetadas como de “alto riesgo”, como la identificación biométrica, el reconocimiento facial o el uso de IA en decisiones laborales y educativas.

Además, los modelos considerados de riesgo sistémico —aquellos que superan los 10²⁵ FLOPs— tendrán que cumplir requisitos aún más estrictos. Se les exigirá supervisión continua, protocolos de seguridad más robustos y una rendición de cuentas más detallada.

El calendario de implementación diferencia entre modelos nuevos y ya existentes: los sistemas puestos en el mercado antes de agosto de 2025 tendrán hasta agosto de 2027 para adaptarse. En cambio, los nuevos modelos deberán cumplir desde el inicio con los requisitos establecidos.

¿Regulación o traba al desarrollo?

El rechazo de Meta se suma a críticas previas realizadas tanto por su directiva como por otras empresas tecnológicas. Kaplan advirtió que el marco regulatorio actual “ralentizará el desarrollo y despliegue de modelos de frontera en Europa” y afectará a las empresas locales que quieran construir servicios sobre estos modelos. También mencionó el apoyo de al menos 45 compañías europeas que comparten su visión sobre los riesgos de “sobrerregulación”.

Esta crítica no es nueva. A principios de 2025, Kaplan ya había manifestado que, si la UE imponía sanciones injustas, Meta consideraría buscar apoyo en la administración estadounidense. Tales declaraciones refuerzan la idea de una grieta transatlántica en la política tecnológica, donde Europa apuesta por la precaución legal y Estados Unidos por la agilidad comercial.

También te puede interesar:Ley de IA de la Unión Europea: Todo lo que debes saber sobre esta regulación

Un modelo de cumplimiento fragmentado

La adopción dispar del código —con empresas firmándolo y otras rechazándolo— sugiere que no existe aún un modelo consensuado sobre cómo regular sistemas de IA. El código incluye excepciones para software de código abierto, pero solo si cumple los criterios del Artículo 53(2) del AI Act.

Sin embargo, los modelos de uso general considerados de riesgo sistémico no están exentos, lo que garantiza un nivel mínimo de supervisión sobre los sistemas más avanzados.

Según la Comisión, las empresas que firmen e implementen adecuadamente el código demostrarán cumplimiento de los artículos 53(1) y 55(1) del AI Act. El código también puede ser aprobado oficialmente mediante actos de implementación, lo que daría a las compañías signatarias un camino de cumplimiento más claro y válido en toda la Unión.

La negativa de Meta a adherirse al código de buenas prácticas para IA de la Unión Europea expone las tensiones persistentes entre regulación y desarrollo tecnológico. Mientras Bruselas busca garantizar transparencia, seguridad y respeto a los derechos fundamentales, empresas como Meta alertan sobre las posibles consecuencias de un entorno normativo demasiado rígido.

Lo que está en juego no es solo el futuro de la IA en Europa, sino también la capacidad del continente para competir en una carrera tecnológica global donde las reglas del juego aún están en construcción.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram