¿Qué pasa cuando una herramienta que ya vive en el celular, en el trabajo y hasta en las tareas escolares intenta abrir una puerta más íntima? La pregunta no es menor, porque en inteligencia artificial el problema no suele ser encender una función, sino decidir quién puede cruzar ese umbral.

Eso es lo que revela The Wall Street Journal sobre OpenAI y ChatGPT: la empresa trabaja en un “modo adulto” para conversaciones eróticas por texto, más cerca del “smut” o erotismo subido de tono que de la pornografía explícita. La pieza clave es que, al menos en esta etapa, no incluiría imágenes, voz ni video.

OpenAI modo adulto

Además, la compañía lo pensó solo para adultos verificados. Sam Altman, CEO de OpenAI, ya había adelantado en octubre que la empresa había logrado mitigar algunos riesgos de salud mental, un hallazgo que abría la oportunidad de relajar ciertas restricciones. Sin embargo, el lanzamiento previsto para el primer trimestre de 2026 se retrasó y todavía no tiene nueva fecha.

El motivo no es decorativo. Es central.

También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats

OpenAI necesita construir un mecanismo de seguridad capaz de permitir un tipo de contenido y bloquear otro mucho más dañino. En términos simples, no se trata de instalar una luz nueva, sino de cambiar el cableado completo de una casa sin provocar un cortocircuito en otra habitación.

Ahí aparece la analogía más clara. Un “modo adulto” no funciona como un interruptor que dice sí o no. Funciona más bien como una cerradura con varias llaves: una para verificar la edad, otra para detectar pedidos peligrosos y una más para frenar escenas prohibidas, como material no consensuado o abuso sexual infantil.

Si una sola llave falla, toda la puerta queda mal cerrada.

El engranaje que todavía no cierra

Según el reporte, uno de los mayores problemas está en la predicción de edad, el sistema que intenta calcular si una persona es mayor o menor sin pedirle solo que marque una casilla. Ese mecanismo llegó a clasificar erróneamente a menores como adultos en cerca del 12% de los casos.

También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats
También te puede interesar:La cortesía con la IA sale caro: ¿Vale la pena decir “por favor” a ChatGPT?

El dato cambia de escala cuando se lo pone sobre la mesa: ChatGPT tiene alrededor de 100 millones de usuarios menores de 18 años cada semana. Con ese margen de error, el riesgo no es teórico. Podría traducirse en millones de adolescentes con acceso a conversaciones sexualizadas.

Un portavoz de OpenAI reconoció que estos algoritmos tienen un rendimiento parecido al del resto de la industria, pero advirtió que nunca serán infalibles. Y un consejo asesor convocado por la empresa subrayó en enero otro punto sensible: este tipo de vínculo podría fomentar dependencia emocional hacia el chatbot.

Uno de los asesores incluso alertó sobre el riesgo de crear algo parecido a un “entrenador sexual de suicidio” si no se gestionan bien los límites.

Por eso, limitar el modo adulto al texto no parece un detalle menor. También es una forma de simplificar la moderación y de encajar mejor con normas como la Online Safety Act del Reino Unido, que exige verificación de edad para pornografía visual, pero no del mismo modo para erotismo escrito.

El contraste con otros actores del sector es evidente. Mientras OpenAI intenta mantener su propuesta en un carril más estrecho, Elon Musk señaló recientemente que Grok puede generar imágenes y video con cualquier contenido que entraría en una película con clasificación R.

La diferencia importa porque cambia el tipo de riesgo. El texto es más fácil de filtrar que una imagen o un clip de voz, pero sigue siendo una zona delicada. La IA no solo responde: también acompaña, sugiere y puede reforzar estados emocionales frágiles.

En la práctica, el retraso muestra algo incómodo pero saludable: OpenAI descubrió que abrir esta puerta es técnicamente posible, pero hacerlo sin exponer a menores ni romper otros seguros todavía no. Y en un sistema que ya forma parte de la rutina digital, a veces la decisión más responsable no es acelerar, sino revisar otra vez el tablero eléctrico antes de bajar la llave.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios