Google ha decidido retirar Gemma del entorno web para desarrolladores AI Studio, tras una polémica pública, y eso cambia cómo probar y desplegar el modelo. Te contamos qué hay detrás del movimiento, qué mantiene Google por API y qué implica para tus proyectos.
La noticia llega con ruido político, que puede despistarte si solo quieres programar y sacar una beta. Conviene entender las razones oficiales y los límites de uso, porque marcan el camino para integrar Gemma de AI Studio en productos reales sin sustos legales. Vamos a ver lo que ha ocurrido, por qué afecta al desarrollo y cómo seguir adelante con seguridad.
El detonante ha sido una carta de la senadora republicana Marsha Blackburn a Sundar Pichai. Según relata, al preguntar a Gemma si había sido acusada de violación, el modelo generó una historia falsa sobre “chantaje de medicamentos” y actos no consensuados durante una campaña estatal en 1987. Blackburn afirma que todo es inventado, incluso la fecha, porque su campaña fue en 1998.

Para reforzar su queja, la senadora explica que los enlaces que Gemma ofrecía como soporte llevaban a páginas de error o a artículos no relacionados. En sus palabras, nunca existió tal acusación, ni la persona implicada, ni cobertura mediática alguna. Con este contexto, las críticas han señalado a Gemma de AI Studio por producir información potencialmente difamatoria y distribuirla en un entorno de pruebas públicas.
En la carta, Blackburn cita la respuesta de Markham Erickson, vicepresidente de Asuntos Gubernamentales y Políticas Públicas de Google. Erickson reconoce que las “alucinaciones” son un problema conocido en los modelos generativos y asegura que el equipo trabaja para reducirlas. La senadora sostiene que aquí no hablamos de simples errores, sino de difamación producida por un sistema propiedad de Google.
Con todo, Google ha movido ficha y ha retirado Gemma de AI Studio para cortar usos fuera de su propósito original. La empresa mantiene que el modelo no estaba pensado para responder preguntas factuales al público general, y que el mal uso en ese sentido amplifica el riesgo de salidas incorrectas con impacto reputacional.
También te puede interesar:Gemma 3 Los Modelos Compactos Abiertos de Google con Puntuación Récord en LMArenaGemma se presenta como una familia de modelos ligeros y abiertos para que los desarrolladores los integren en sus propios productos. AI Studio es el entorno web de Google para experimentar con prompts, ajustar parámetros y crear prototipos de aplicaciones con IA. Según la compañía, la idea no era convertir Gemma de AI Studio en una herramienta de consumo para consultas de hechos.

En cualquier caso, la realidad es que algunos usuarios no ligados al desarrollo empezaron a hacer preguntas sensibles y de verificación factual dentro del entorno. Google insiste en que Gemma de AI Studio debía usarse como recurso técnico previo a la integración, no como chatbot generalista listo para responder sobre personas reales.
Tras los incidentes, Google ha quitado el modelo de la interfaz de AI Studio, pero mantiene el acceso por API. Esto significa que puedes seguir llamando a Gemma desde tu backend, aplicar filtros, inyectar contexto y registrar trazas. La retirada de Gemma de AI Studio afecta al acceso web inmediato, no a la disponibilidad del modelo para integraciones controladas.
Este cambio te empuja a trabajar con controles de calidad propios. La API te da flexibilidad para implementar revisión de fuentes, moderación y “citas” estructuradas, mientras que en Gemma de AI Studio el flujo era más abierto y propenso a usos no previstos por Google.
En una audiencia reciente del Senado sobre Comercio, Blackburn recordó además la demanda del activista conservador Robby Starbuck contra Google. Según su acusación, varios modelos de la empresa —incluido Gemma— generaron afirmaciones difamatorias, llegando a etiquetarle como “violador de menores” y “abusador sexual en serie”. El caso alimentó el foco sobre Gemma de AI Studio y sus salidas.
El asunto encaja en un debate más amplio. Donald Trump y aliados tecnológicos critican que la “censura de IA” crea un sesgo liberal en chatbots populares. Trump firmó a principios de año una orden ejecutiva que prohíbe la llamada “IA woke”. Blackburn, por su parte, colaboró en la eliminación de una moratoria sobre regulación estatal de la IA dentro del Big Beautiful Bill y denuncia un “patrón constante de sesgo contra figuras conservadoras” en sistemas de Google.
En una publicación en X, Google no respondió de forma directa a la carta, pero señaló que detectó a personas ajenas al desarrollo usando Gemma para preguntas de hechos dentro de AI Studio. La empresa recalca que nunca concibió Gemma de AI Studio como herramienta de consumo, y que su destino es la integración por parte de desarrolladores bajo controles propios.
Como consecuencia práctica, Google ha retirado Gemma de AI Studio, manteniendo el acceso mediante API. Esto reduce el uso casual y orienta el modelo a escenarios donde puedes configurar pre-prompt, políticas, recuperación de contexto y auditoría técnica.
¿Quieres continuar con el modelo? Está disponible por API. La clave es añadir salvaguardas que reduzcan “alucinaciones”, eviten difamación y documenten decisiones. Con todo, esto te da control para que Gemma de AI Studio encaje en aplicaciones con requisitos legales y de calidad, especialmente si tratas nombres propios o temas delicados.
Cuando una IA genera afirmaciones sobre delitos, entras en zona de riesgo. Un texto falso puede considerarse difamación si daña la reputación de una persona identificable. Es posible mitigar el riesgo si diseñas tu app para rechazar preguntas factuales sensibles o si obligas a Gemma de AI Studio a pedir confirmación y fuentes válidas antes de responder.
Con todo, no basta con filtros básicos. Define políticas internas, registro de decisiones, y un mecanismo para retirar contenidos reportados. En contextos periodísticos, médicos o legales, limita el modelo a tareas internas de borrador y revisa siempre con expertos. Esto reduce exposición jurídica y estabiliza la calidad de tus salidas con Gemma.
Para evitar confusiones, Google insiste en que Gemma no estaba pensada como herramienta de consumo para preguntas de hechos. La exposición pública en AI Studio atrajo usos inesperados. Como detalle de transparencia, este artículo fue editado para eliminar lenguaje inexacto sobre el apoyo previo de la senadora Blackburn a políticas de la administración Trump, ajustando la información al registro público.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.