Agentes IAArtists&ClientsAI PlusIA / Inteligencia ArtificialOpenAIImagine LensShowrunnerGeminiAnthropicClaudeROCKETpromptPromptLockExcelQuinta Revolución Industrial (QRI)

Riesgos de Google Gemini Para Niños y Adolescentes Según Nueva Evaluación de Seguridad

 | septiembre 7, 2025 21:13

Gemini de Google es un conjunto de productos de inteligencia artificial que ya interactúan con millones de personas, incluidos niños y adolescentes. En teoría, estas herramientas deberían ser seguras para los más jóvenes y ofrecer respuestas cuidadas. Una nueva evaluación independiente pone el foco en riesgos concretos que te interesan si hay menores a tu cargo o en tu aula.

Te contamos qué ha encontrado Common Sense Media, cómo responde Google y por qué esta conversación importa justo ahora. Vamos a ver cómo afecta a tu día a día, qué puedes esperar de Gemini de Google y qué límites siguen sin resolverse.

Evaluación de riesgo de Gemini de Google para menores: lo que dice Common Sense Media

Common Sense Media, organización sin ánimo de lucro centrada en la seguridad infantil, ha publicado una evaluación específica sobre los productos de Gemini de Google. El informe coloca las versiones “Menores de 13” y “Experiencia Adolescente” en la categoría de alto riesgo, pese a los filtros existentes.

Con todo, reconoce un punto positivo: el sistema deja claro a los niños que es un ordenador y no un amigo, algo que reduce confusiones peligrosas en usuarios vulnerables.

Evaluación de riesgo de Gemini de Google para menores

Esta aclaración ayuda a frenar la idea de que el chatbot tiene emociones o vínculos reales, lo que en perfiles sensibles puede disparar pensamientos delirantes. El análisis concluye que la protección actual de Gemini de Google para menores no basta y que faltan enfoques realmente pensados para su edad.

¿Por qué Common Sense califica a Gemini como “alto riesgo” para niños y adolescentes?

La organización sostiene que las ediciones “Under 13” y “Teen” son, en la práctica, la versión para adultos de Gemini de Google con algunas funciones de seguridad añadidas. A su juicio, eso no aborda las necesidades específicas de un menor ni su etapa de desarrollo. Valora que se explique explícitamente que la IA no es una persona real.

También te puede interesar:El Nuevo Google Shopping con Inteligencia Artificial

Robbie Torney, director sénior de programas de IA en Common Sense Media, remarca que una IA para niños debe adaptarse a su madurez y no aplicar un enfoque uniforme a todas las edades. Con todo, insiste en que un producto seguro y efectivo para menores se diseña desde cero para ellos, no se improvisa a partir de una herramienta adulta.

Contenidos inapropiados en Gemini de Google: sexo, drogas, alcohol y salud mental

El análisis revela que Gemini de Google todavía puede entregar material inadecuado o peligroso a menores. Entre los ejemplos citados aparecen información sobre sexo, drogas y alcohol, y también consejos de salud mental inseguros. Para un adolescente en un momento difícil, esto no es un detalle menor.

Gemini de Google todavía puede entregar material inadecuado o peligroso a menores

Google asegura que mantiene políticas específicas para menores de 18 años y que trabaja en reforzar los filtros. En cualquier caso, la realidad de la prueba indica que ciertas respuestas problemáticas aún se cuelan y que las salvaguardas necesitan ser más estrictas.

Casos reales y demandas: por qué la IA con menores no es un juego

La preocupación no nace en el vacío. OpenAI afronta una demanda por homicidio culposo tras el suicidio de un joven de 16 años que habría consultado sus planes con ChatGPT durante meses, eludiendo filtros. Character.AI también se ha visto en demandas por otro caso de un adolescente usuario de su asistente.

Estos antecedentes marcan el contexto en el que se evalúa Gemini de Google. Cada servicio tiene su propia arquitectura y controles, y ahí es donde Common Sense pide rigor máximo y diseños específicos para proteger a los chicos.

Apple y el posible uso de Gemini de Google en Siri: riesgos si no hay mitigación

Se han filtrado informaciones que apuntan a que Apple podría integrar Gemini de Google como modelo de lenguaje en la próxima versión de Siri. Si esto ocurre, la exposición de adolescentes a estos riesgos aumentaría de forma notable en iPhone y iPad.

También te puede interesar:Gemini Advanced ahora Tiene Memoria y puede recordar tus intereses y preferencias

Esa integración dependería de medidas de seguridad adicionales. Si Apple incorpora controles sólidos y ajustados a menores, vas a poder reducir parte del riesgo. Con todo, Common Sense insiste en que el núcleo del producto debe estar orientado a la infancia desde el diseño.

La respuesta oficial de Google: salvaguardas en curso para Gemini de Google

Google defiende que las funciones de seguridad de Gemini de Google están mejorando y que ya existen políticas y salvaguardas específicas para usuarios menores de 18 años. La compañía asegura practicar pruebas internas de estrés (red-teaming) y consultar con expertos externos para prevenir resultados dañinos.

En paralelo, reconoce que algunas respuestas no han funcionado como se esperaba y que han incorporado nuevas barreras para corregirlo. También destaca protecciones para evitar conversaciones que imiten relaciones personales reales, “una especie de ‘ping’ emocional” que podría confundir a un menor.

Google cuestiona además partes del informe y afirma que ciertas funciones citadas ni siquiera estarían disponibles para menores. Admite que no conoce con exactitud los casos de prueba que Common Sense aplicó, lo que deja margen para aclaraciones técnicas y validaciones conjuntas.

Comparativa de riesgo: cómo clasifica Common Sense a otras IA frente a Gemini de Google

Para situar a Gemini de Google en contexto, Common Sense Media publica valoraciones de otras plataformas. La foto general ayuda a entender que el problema es amplio, aunque con grados distintos de peligro para los menores.

Servicio de IAValoración de riesgo (Common Sense Media)Notas relevantes
Meta AIInaceptable (riesgo severo)Riesgos muy elevados para menores
Character.AIInaceptable (riesgo severo)Demandas relacionadas con un suicidio adolescente
PerplexityAlto riesgoRiesgos significativos en filtros y contenidos
ChatGPTRiesgo moderadoCaso judicial abierto por un suicidio adolescente
Claude (orientado a adultos)Mínimo riesgoDiseñado para mayores; filtros más conservadores
Gemini de GoogleAlto riesgoVersión “Under 13” y “Teen” no diseñadas desde cero

¿Qué debería cambiar en Gemini de Google para ser realmente seguro para menores?

Según Common Sense, el problema central es de diseño. Un Gemini de Google seguro para niños debe nacer con criterios de desarrollo evolutivo, lenguaje adaptado y límites de conversación cerrados. Siempre vas a necesitar supervisión adulta, porque ningún filtro es perfecto.

También te puede interesar:OpenAI Cambia a ChatGPT para que Responda de Forma más Segura en Momentos de Crisis
Siempre vas a necesitar supervisión adulta, porque ningún filtro es perfecto

La organización pide que se asuman tres pilares: crear contenidos educativos adecuados por edad, evitar accesos a temas delicados sin contexto y reforzar señales sociales que recuerden que la IA no es una persona. Con todo, también sugiere auditar de forma externa y frecuente.

Guía rápida: cómo usar Gemini de Google con menores en casa o en clase

  1. Activa los controles de familia y edad en la cuenta del menor antes de abrir Gemini de Google.
  2. Supervisa sesiones iniciales y acuerda preguntas “permitidas”, “con duda” y “no permitidas”.
  3. Revisa el historial de conversaciones y habla sobre respuestas confusas o sensibles.
  4. Refuerza el mensaje clave: la IA es una herramienta, no un amigo ni un profesional sanitario.
  5. Interrumpe cualquier interacción que derive a sexo, drogas, alcohol o consejos de salud mental.
  6. Escala dudas serias a un adulto de referencia o a un profesional de salud cuando corresponda.

¿Qué puedes esperar hoy de Gemini de Google si lo usas con adolescentes?

Vas a poder obtener respuestas útiles en tareas concretas, practicar idiomas o resumir textos con Gemini de Google. Sigue habiendo riesgo de contenidos inadecuados y de consejos inseguros, sobre todo si las preguntas bordean temas sensibles.

Con todo, Google afirma que sus protecciones mejoran y que está implantando nuevas salvaguardas. Hasta que esas mejoras sean consistentes, conviene combinar filtros técnicos con acompañamiento adulto y un marco claro de uso.

En pocas líneas, Common Sense Media advierte que Gemini de Google no protege realmente a menores como debería, porque deriva de un producto adulto con parches de seguridad. El informe detecta riesgos de contenido inapropiado y de salud mental, mientras Google asegura que refuerza políticas, pruebas y salvaguardas. Si escuchas rumores sobre su llegada a Siri, recuerda que la clave está en diseñar la IA desde cero para niños y adolescentes, y en cómo tú acompañas ese uso cada día.

También te puede interesar:Escándalo en Meta: Chatbots de celebridades podrían hablar de sexo con menores
Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram