Gemini de Google es un conjunto de productos de inteligencia artificial que ya interactúan con millones de personas, incluidos niños y adolescentes. En teoría, estas herramientas deberían ser seguras para los más jóvenes y ofrecer respuestas cuidadas. Una nueva evaluación independiente pone el foco en riesgos concretos que te interesan si hay menores a tu cargo o en tu aula.
Te contamos qué ha encontrado Common Sense Media, cómo responde Google y por qué esta conversación importa justo ahora. Vamos a ver cómo afecta a tu día a día, qué puedes esperar de Gemini de Google y qué límites siguen sin resolverse.
Evaluación de riesgo de Gemini de Google para menores: lo que dice Common Sense Media
Common Sense Media, organización sin ánimo de lucro centrada en la seguridad infantil, ha publicado una evaluación específica sobre los productos de Gemini de Google. El informe coloca las versiones “Menores de 13” y “Experiencia Adolescente” en la categoría de alto riesgo, pese a los filtros existentes.
Con todo, reconoce un punto positivo: el sistema deja claro a los niños que es un ordenador y no un amigo, algo que reduce confusiones peligrosas en usuarios vulnerables.
También te puede interesar:Gemini App: Ahora Disponible para Archivos de Audio
Esta aclaración ayuda a frenar la idea de que el chatbot tiene emociones o vínculos reales, lo que en perfiles sensibles puede disparar pensamientos delirantes. El análisis concluye que la protección actual de Gemini de Google para menores no basta y que faltan enfoques realmente pensados para su edad.
¿Por qué Common Sense califica a Gemini como “alto riesgo” para niños y adolescentes?
La organización sostiene que las ediciones “Under 13” y “Teen” son, en la práctica, la versión para adultos de Gemini de Google con algunas funciones de seguridad añadidas. A su juicio, eso no aborda las necesidades específicas de un menor ni su etapa de desarrollo. Valora que se explique explícitamente que la IA no es una persona real.
Robbie Torney, director sénior de programas de IA en Common Sense Media, remarca que una IA para niños debe adaptarse a su madurez y no aplicar un enfoque uniforme a todas las edades. Con todo, insiste en que un producto seguro y efectivo para menores se diseña desde cero para ellos, no se improvisa a partir de una herramienta adulta.
Contenidos inapropiados en Gemini de Google: sexo, drogas, alcohol y salud mental
El análisis revela que Gemini de Google todavía puede entregar material inadecuado o peligroso a menores. Entre los ejemplos citados aparecen información sobre sexo, drogas y alcohol, y también consejos de salud mental inseguros. Para un adolescente en un momento difícil, esto no es un detalle menor.
También te puede interesar:Gemini App: Ahora Disponible para Archivos de Audio
Google asegura que mantiene políticas específicas para menores de 18 años y que trabaja en reforzar los filtros. En cualquier caso, la realidad de la prueba indica que ciertas respuestas problemáticas aún se cuelan y que las salvaguardas necesitan ser más estrictas.
Casos reales y demandas: por qué la IA con menores no es un juego
La preocupación no nace en el vacío. OpenAI afronta una demanda por homicidio culposo tras el suicidio de un joven de 16 años que habría consultado sus planes con ChatGPT durante meses, eludiendo filtros. Character.AI también se ha visto en demandas por otro caso de un adolescente usuario de su asistente.
Estos antecedentes marcan el contexto en el que se evalúa Gemini de Google. Cada servicio tiene su propia arquitectura y controles, y ahí es donde Common Sense pide rigor máximo y diseños específicos para proteger a los chicos.
Apple y el posible uso de Gemini de Google en Siri: riesgos si no hay mitigación
Se han filtrado informaciones que apuntan a que Apple podría integrar Gemini de Google como modelo de lenguaje en la próxima versión de Siri. Si esto ocurre, la exposición de adolescentes a estos riesgos aumentaría de forma notable en iPhone y iPad.
También te puede interesar:Gemini App: Ahora Disponible para Archivos de AudioEsa integración dependería de medidas de seguridad adicionales. Si Apple incorpora controles sólidos y ajustados a menores, vas a poder reducir parte del riesgo. Con todo, Common Sense insiste en que el núcleo del producto debe estar orientado a la infancia desde el diseño.
La respuesta oficial de Google: salvaguardas en curso para Gemini de Google
Google defiende que las funciones de seguridad de Gemini de Google están mejorando y que ya existen políticas y salvaguardas específicas para usuarios menores de 18 años. La compañía asegura practicar pruebas internas de estrés (red-teaming) y consultar con expertos externos para prevenir resultados dañinos.
En paralelo, reconoce que algunas respuestas no han funcionado como se esperaba y que han incorporado nuevas barreras para corregirlo. También destaca protecciones para evitar conversaciones que imiten relaciones personales reales, “una especie de ‘ping’ emocional” que podría confundir a un menor.
Google cuestiona además partes del informe y afirma que ciertas funciones citadas ni siquiera estarían disponibles para menores. Admite que no conoce con exactitud los casos de prueba que Common Sense aplicó, lo que deja margen para aclaraciones técnicas y validaciones conjuntas.
Comparativa de riesgo: cómo clasifica Common Sense a otras IA frente a Gemini de Google
Para situar a Gemini de Google en contexto, Common Sense Media publica valoraciones de otras plataformas. La foto general ayuda a entender que el problema es amplio, aunque con grados distintos de peligro para los menores.
| Servicio de IA | Valoración de riesgo (Common Sense Media) | Notas relevantes |
|---|---|---|
| Meta AI | Inaceptable (riesgo severo) | Riesgos muy elevados para menores |
| Character.AI | Inaceptable (riesgo severo) | Demandas relacionadas con un suicidio adolescente |
| Perplexity | Alto riesgo | Riesgos significativos en filtros y contenidos |
| ChatGPT | Riesgo moderado | Caso judicial abierto por un suicidio adolescente |
| Claude (orientado a adultos) | Mínimo riesgo | Diseñado para mayores; filtros más conservadores |
| Gemini de Google | Alto riesgo | Versión “Under 13” y “Teen” no diseñadas desde cero |
¿Qué debería cambiar en Gemini de Google para ser realmente seguro para menores?
Según Common Sense, el problema central es de diseño. Un Gemini de Google seguro para niños debe nacer con criterios de desarrollo evolutivo, lenguaje adaptado y límites de conversación cerrados. Siempre vas a necesitar supervisión adulta, porque ningún filtro es perfecto.

La organización pide que se asuman tres pilares: crear contenidos educativos adecuados por edad, evitar accesos a temas delicados sin contexto y reforzar señales sociales que recuerden que la IA no es una persona. Con todo, también sugiere auditar de forma externa y frecuente.
Guía rápida: cómo usar Gemini de Google con menores en casa o en clase
- Activa los controles de familia y edad en la cuenta del menor antes de abrir Gemini de Google.
- Supervisa sesiones iniciales y acuerda preguntas “permitidas”, “con duda” y “no permitidas”.
- Revisa el historial de conversaciones y habla sobre respuestas confusas o sensibles.
- Refuerza el mensaje clave: la IA es una herramienta, no un amigo ni un profesional sanitario.
- Interrumpe cualquier interacción que derive a sexo, drogas, alcohol o consejos de salud mental.
- Escala dudas serias a un adulto de referencia o a un profesional de salud cuando corresponda.
¿Qué puedes esperar hoy de Gemini de Google si lo usas con adolescentes?
Vas a poder obtener respuestas útiles en tareas concretas, practicar idiomas o resumir textos con Gemini de Google. Sigue habiendo riesgo de contenidos inadecuados y de consejos inseguros, sobre todo si las preguntas bordean temas sensibles.
Con todo, Google afirma que sus protecciones mejoran y que está implantando nuevas salvaguardas. Hasta que esas mejoras sean consistentes, conviene combinar filtros técnicos con acompañamiento adulto y un marco claro de uso.
En pocas líneas, Common Sense Media advierte que Gemini de Google no protege realmente a menores como debería, porque deriva de un producto adulto con parches de seguridad. El informe detecta riesgos de contenido inapropiado y de salud mental, mientras Google asegura que refuerza políticas, pruebas y salvaguardas. Si escuchas rumores sobre su llegada a Siri, recuerda que la clave está en diseñar la IA desde cero para niños y adolescentes, y en cómo tú acompañas ese uso cada día.

Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.











