Gemini de Google es un conjunto de productos de inteligencia artificial que ya interactúan con millones de personas, incluidos niños y adolescentes. En teoría, estas herramientas deberían ser seguras para los más jóvenes y ofrecer respuestas cuidadas. Una nueva evaluación independiente pone el foco en riesgos concretos que te interesan si hay menores a tu cargo o en tu aula.
Te contamos qué ha encontrado Common Sense Media, cómo responde Google y por qué esta conversación importa justo ahora. Vamos a ver cómo afecta a tu día a día, qué puedes esperar de Gemini de Google y qué límites siguen sin resolverse.
Common Sense Media, organización sin ánimo de lucro centrada en la seguridad infantil, ha publicado una evaluación específica sobre los productos de Gemini de Google. El informe coloca las versiones “Menores de 13” y “Experiencia Adolescente” en la categoría de alto riesgo, pese a los filtros existentes.
Con todo, reconoce un punto positivo: el sistema deja claro a los niños que es un ordenador y no un amigo, algo que reduce confusiones peligrosas en usuarios vulnerables.
Esta aclaración ayuda a frenar la idea de que el chatbot tiene emociones o vínculos reales, lo que en perfiles sensibles puede disparar pensamientos delirantes. El análisis concluye que la protección actual de Gemini de Google para menores no basta y que faltan enfoques realmente pensados para su edad.
La organización sostiene que las ediciones “Under 13” y “Teen” son, en la práctica, la versión para adultos de Gemini de Google con algunas funciones de seguridad añadidas. A su juicio, eso no aborda las necesidades específicas de un menor ni su etapa de desarrollo. Valora que se explique explícitamente que la IA no es una persona real.
También te puede interesar:El Nuevo Google Shopping con Inteligencia ArtificialRobbie Torney, director sénior de programas de IA en Common Sense Media, remarca que una IA para niños debe adaptarse a su madurez y no aplicar un enfoque uniforme a todas las edades. Con todo, insiste en que un producto seguro y efectivo para menores se diseña desde cero para ellos, no se improvisa a partir de una herramienta adulta.
El análisis revela que Gemini de Google todavía puede entregar material inadecuado o peligroso a menores. Entre los ejemplos citados aparecen información sobre sexo, drogas y alcohol, y también consejos de salud mental inseguros. Para un adolescente en un momento difícil, esto no es un detalle menor.
Google asegura que mantiene políticas específicas para menores de 18 años y que trabaja en reforzar los filtros. En cualquier caso, la realidad de la prueba indica que ciertas respuestas problemáticas aún se cuelan y que las salvaguardas necesitan ser más estrictas.
La preocupación no nace en el vacío. OpenAI afronta una demanda por homicidio culposo tras el suicidio de un joven de 16 años que habría consultado sus planes con ChatGPT durante meses, eludiendo filtros. Character.AI también se ha visto en demandas por otro caso de un adolescente usuario de su asistente.
Estos antecedentes marcan el contexto en el que se evalúa Gemini de Google. Cada servicio tiene su propia arquitectura y controles, y ahí es donde Common Sense pide rigor máximo y diseños específicos para proteger a los chicos.
Se han filtrado informaciones que apuntan a que Apple podría integrar Gemini de Google como modelo de lenguaje en la próxima versión de Siri. Si esto ocurre, la exposición de adolescentes a estos riesgos aumentaría de forma notable en iPhone y iPad.
También te puede interesar:Gemini Advanced ahora Tiene Memoria y puede recordar tus intereses y preferenciasEsa integración dependería de medidas de seguridad adicionales. Si Apple incorpora controles sólidos y ajustados a menores, vas a poder reducir parte del riesgo. Con todo, Common Sense insiste en que el núcleo del producto debe estar orientado a la infancia desde el diseño.
Google defiende que las funciones de seguridad de Gemini de Google están mejorando y que ya existen políticas y salvaguardas específicas para usuarios menores de 18 años. La compañía asegura practicar pruebas internas de estrés (red-teaming) y consultar con expertos externos para prevenir resultados dañinos.
En paralelo, reconoce que algunas respuestas no han funcionado como se esperaba y que han incorporado nuevas barreras para corregirlo. También destaca protecciones para evitar conversaciones que imiten relaciones personales reales, “una especie de ‘ping’ emocional” que podría confundir a un menor.
Google cuestiona además partes del informe y afirma que ciertas funciones citadas ni siquiera estarían disponibles para menores. Admite que no conoce con exactitud los casos de prueba que Common Sense aplicó, lo que deja margen para aclaraciones técnicas y validaciones conjuntas.
Para situar a Gemini de Google en contexto, Common Sense Media publica valoraciones de otras plataformas. La foto general ayuda a entender que el problema es amplio, aunque con grados distintos de peligro para los menores.
Servicio de IA | Valoración de riesgo (Common Sense Media) | Notas relevantes |
---|---|---|
Meta AI | Inaceptable (riesgo severo) | Riesgos muy elevados para menores |
Character.AI | Inaceptable (riesgo severo) | Demandas relacionadas con un suicidio adolescente |
Perplexity | Alto riesgo | Riesgos significativos en filtros y contenidos |
ChatGPT | Riesgo moderado | Caso judicial abierto por un suicidio adolescente |
Claude (orientado a adultos) | Mínimo riesgo | Diseñado para mayores; filtros más conservadores |
Gemini de Google | Alto riesgo | Versión “Under 13” y “Teen” no diseñadas desde cero |
Según Common Sense, el problema central es de diseño. Un Gemini de Google seguro para niños debe nacer con criterios de desarrollo evolutivo, lenguaje adaptado y límites de conversación cerrados. Siempre vas a necesitar supervisión adulta, porque ningún filtro es perfecto.
También te puede interesar:OpenAI Cambia a ChatGPT para que Responda de Forma más Segura en Momentos de CrisisLa organización pide que se asuman tres pilares: crear contenidos educativos adecuados por edad, evitar accesos a temas delicados sin contexto y reforzar señales sociales que recuerden que la IA no es una persona. Con todo, también sugiere auditar de forma externa y frecuente.
Vas a poder obtener respuestas útiles en tareas concretas, practicar idiomas o resumir textos con Gemini de Google. Sigue habiendo riesgo de contenidos inadecuados y de consejos inseguros, sobre todo si las preguntas bordean temas sensibles.
Con todo, Google afirma que sus protecciones mejoran y que está implantando nuevas salvaguardas. Hasta que esas mejoras sean consistentes, conviene combinar filtros técnicos con acompañamiento adulto y un marco claro de uso.
En pocas líneas, Common Sense Media advierte que Gemini de Google no protege realmente a menores como debería, porque deriva de un producto adulto con parches de seguridad. El informe detecta riesgos de contenido inapropiado y de salud mental, mientras Google asegura que refuerza políticas, pruebas y salvaguardas. Si escuchas rumores sobre su llegada a Siri, recuerda que la clave está en diseñar la IA desde cero para niños y adolescentes, y en cómo tú acompañas ese uso cada día.
También te puede interesar:Escándalo en Meta: Chatbots de celebridades podrían hablar de sexo con menoresMe dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.