NvidiaH200ClaudeAgent ModeChatGPTGrokSlackClaude CodeAndroid XRAI ACTAI FactoriesAgentes IAIA / Inteligencia ArtificialGemini LiveYoodli

Amazon planta cara a sus rivales con las ‘AI Factories’ de Nvidia instaladas en sus propios centros

 | diciembre 9, 2025 03:53

Amazon ha movido ficha en plena guerra de la nube: ha presentado sus nuevas AI Factories on‑premise de AWS, unas “fábricas” de inteligencia artificial que se instalan directamente en los centros de datos de grandes empresas y gobiernos. El gancho es claro: ejecutar tus modelos de IA en casa, con ayuda de Amazon y Nvidia, pero sin soltar tus datos.

El anuncio llega desde Amazon Web Services y se dirige sobre todo a organizaciones públicas y grandes corporaciones que ya tienen centros de datos potentes. El lanzamiento no solo compite con otros proveedores como Microsoft, también plantea una pregunta incómoda para todo el sector: si la nube lo iba a centralizar todo, ¿por qué los gigantes están volviendo al centro de datos privados?

Amazon planta cara a sus rivales con las ‘AI Factories’ de Nvidia instaladas en sus propios centros

El corazón de estas AI Factories está en el reparto de responsabilidades. Tú pones el edificio, la energía y la refrigeración del centro de datos, y AWS se encarga de instalar el sistema de IA, administrarlo en el día a día e integrarlo con el resto de servicios de su nube pública. Es como si trasladaras una porción de Amazon a tu propio edificio, pero bajo tus llaves físicas.

Ese detalle es clave para entender a quién va dirigido el producto. Muchas empresas temen que sus datos acaben en manos de competidores o de estados extranjeros, sobre todo en sectores como banca, defensa o sanidad. Con las AI Factories de AWS, vas a poder entrenar y desplegar modelos avanzados sin que tus bases de datos salgan nunca de tu red, y sin compartir el hardware con terceros.

En este modelo on‑premise, las cargas de trabajo de inteligencia artificial se ejecutan en tu propio centro de datos, no en un “data center” remoto de Amazon. Esto significa que las AI Factories evitan que tengas que enviar datos a un proveedor externo de modelos, y también te libran de compartir las mismas máquinas físicas con otros clientes anónimos de la nube pública, algo que muchas áreas reguladas miran con bastante recelo.

Hay un matiz curioso en el nombre que no es casual. Nvidia lleva un tiempo hablando de sus propios sistemas como “AI Factories”, enormes conjuntos de GPUs, redes y software para entrenar y desplegar modelos gigantes. Y ahora, el producto AI Factory de AWS es precisamente una colaboración declarada entre Amazon Web Services y Nvidia, según han confirmado ambas compañías en sus presentaciones públicas.

También te puede interesar:¿Qué es una AI Factory? El Concepto que Marcará la Próxima Década de la Inteligencia Artificial

Esta colaboración se nota en la lista de chips que puedes elegir. Las empresas van a poder montar sus AI Factories on‑premise con las últimas GPUs Blackwell de Nvidia, pensadas para entrenar modelos enormes, o apostar por el nuevo chip Trainium3 de Amazon, diseñado por la propia AWS para acelerar tareas de IA con costes más contenidos. Esa flexibilidad es una de las bazas con las que Amazon intenta diferenciarse.

El hardware, Es solo la mitad de la historia. Estas AI Factories se apoyan en la misma infraestructura de redes, almacenamiento, bases de datos y seguridad que ya usa AWS en su nube pública. Eso significa que vas a poder conectar esta instalación local con otros servicios de Amazon casi como si fuera otra región de nube más, solo que ubicada dentro de tu propio perímetro físico.

Desde el punto de vista de los modelos, la jugada es aún más interesante. Las AI Factories de AWS pueden enlazar con Amazon Bedrock, el servicio que te permite elegir, combinar y gestionar modelos de IA generativa de distintos proveedores, y también integrarse con SageMaker, la herramienta de la casa para crear, entrenar y desplegar tus propios modelos. El objetivo es claro: que no veas la AI Factory como un bloque aislado, sino como una pieza más de tu arquitectura de nube híbrida.

En comunicaciones oficiales y en sesiones técnicas recientes, tanto ingenieros de Amazon como de Nvidia han insistido en que esta solución está pensada para soberanía de datos y control local. Como resumía un responsable de producto en una charla técnica, “el cliente conserva el control físico de sus datos sin renunciar al ecosistema de servicios de AWS”. Esa es la promesa que ahora tendrán que demostrar en despliegues reales.

Cómo las AI Factories on‑premise de AWS cambian la estrategia de soberanía de datos

La apuesta de Amazon no aparece en el vacío. Otros grandes proveedores de nube ya se están moviendo en la misma dirección, lo que muestra un cambio de ciclo. Microsoft, por ejemplo, está instalando Nvidia AI Factories en sus propios centros de datos globales para ejecutar las cargas de trabajo de OpenAI. En octubre enseñó por primera vez estas instalaciones, centradas en mover modelos como GPT a escala masiva.

Microsoft ha preferido hablar de “AI Superfactories” para describir sus nuevos centros de datos de última generación, que se están construyendo en lugares como Wisconsin y Georgia. En esa presentación no se habló de ofrecer esas máquinas extremas como producto on‑premise para clientes privados, sino como columna vertebral de la propia nube de Microsoft, algo más distante de la idea de AI Factory en tu casa que ahora plantea Amazon.

En paralelo, Microsoft también intenta responder a la preocupación por la soberanía de datos con otra vía: nuevos centros de datos y servicios en la nube desplegados en distintos países, anunciados el mes pasado, y soluciones como Azure Local. En este último caso, se trata de hardware gestionado por Microsoft que puedes instalar en tus propias instalaciones, una especie de nube local empaquetada que recuerda, en filosofía, a lo que AWS busca con sus AI Factories, aunque con matices de enfoque.

Con todo, el elemento común es claro: el auge de la inteligencia artificial está devolviendo protagonismo a los centros de datos privados corporativos y a los modelos de nube híbrida. Lo que hace una década se intentaba simplificar llevando todo a la nube pública, ahora se complica otra vez con cajas negras de IA dentro de las empresas, conectadas al mismo tiempo a servicios remotos.

Por qué los grandes vuelven al centro de datos privado con fábricas de IA

Si miras esta tendencia con algo de perspectiva, se parece mucho a lo que ocurría alrededor de 2009, cuando el sector hablaba sin parar de “cloud híbrida” y los departamentos de TI intentaban decidir qué aplicaciones se quedaban en casa y cuáles subían a la nube. La diferencia ahora es que la pieza crítica ya no es el correo o el ERP, sino la inteligencia artificial que genera ventaja competitiva.

Las AI Factories on‑premise de AWS son, en el fondo, una forma de empujar a las organizaciones hacia un modelo híbrido donde las tareas más sensibles, como entrenar un modelo con datos internos, se quedan dentro del centro de datos del cliente, mientras que otras funciones se consumen desde la nube. Vas a poder, por ejemplo, entrenar un modelo en tu AI Factory y luego exponerlo a aplicaciones alojadas en AWS con latencias razonables.

Esta aproximación también trae retos. La complejidad operativa sube, porque hay que coordinar equipos locales y equipos de nube, y garantizar que la seguridad y el cumplimiento normativo se aplican igual en los dos lados. Los costes energéticos también pasan a ser un factor crítico, ya que tú aportas la energía y las instalaciones, y los chips como Blackwell o Trainium3 no son precisamente ligeros en consumo.

Los próximos meses darán pistas claras de si estas AI Factories on‑premise se quedan como producto nicho para gobiernos y unos pocos bancos, o si acaban siendo tan comunes como hoy son las nubes privadas. Señales a vigilar: anuncios de despliegues en sectores regulados, acuerdos marco con administraciones públicas y, sobre todo, si Amazon empieza a bajar el umbral de tamaño para que empresas medianas puedan entrar en el juego.

Por ahora, lo que sí está claro es el mensaje de fondo. Con estas nuevas AI Factories on‑premise, Amazon quiere que puedas aprovechar la inteligencia artificial avanzada, la potencia de Nvidia y su propio chip Trainium3 sin renunciar al control físico de tus datos. En un momento en el que la soberanía y la privacidad se han convertido en argumentos de venta tan fuertes como el precio o el rendimiento, esta combinación de nube y centro de datos propio apunta a marcar la agenda de la próxima etapa de la IA corporativa.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram