¿Alguna vez te has preguntado qué pasa con tus conversaciones personales cuando usas ChatGPT como si fuera un terapeuta o un amigo de confianza? Sam Altman, el CEO de OpenAI, ha lanzado una advertencia que pone el foco en un aspecto clave: no existe confidencialidad legal en los chats con ChatGPT, aunque hables de problemas emocionales o de salud mental.
Hoy en día, muchísimas personas —sobre todo jóvenes— emplean ChatGPT buscando consejo, cuentan inquietudes personales y exploran decisiones importantes. Sin embargo, esa apertura puede tener riesgos inesperados. Si te apoyas a menudo en la inteligencia artificial para temas delicados, te interesa saber por qué tu bienestar y tu privacidad no corren necesariamente de la mano.
Cuando hablas con un médico, abogado o terapeuta humano, esas conversaciones están protegidas por leyes especiales de secreto profesional. Nadie puede compartir lo que cuentas sin tu permiso, salvo casos límite muy concretos. Sin embargo, si pruebas a usar ChatGPT como confidente, esa protección simplemente no existe.
OpenAI y servicios similares explican que aún no hay un marco legal que garantice privacidad en chats sensibles con inteligencia artificial. Así, cualquier mensaje que envíes podría salir a la luz si una corte lo pide. Altman reconoce que esto le preocupa y cree que debería haber una protección parecida a la que recibes en una consulta médica.
Imagina que surge una disputa legal o una investigación policial. Si has usado ChatGPT para consultas personales o asuntos delicados, OpenAI podría estar obligada a entregar los registros de tus conversaciones.
Hoy la ley no impide que una empresa guarde esas charlas, salvo para empresas que hayan contratado versiones especiales como ChatGPT Enterprise, donde se prometen reglas distintas de privacidad.
También te puede interesar:OpenAI recauda $6.6 mil millones y alcanza una valoración de $157 mil millonesAltman y OpenAI han explicado que están en medio de un litigio judicial serio, en el que se les exige almacenar las conversaciones de millones de usuarios. Para el CEO de OpenAI, cumplir esta orden sería un “exceso” y podría hacer que en el futuro otras empresas de IA se enfrenten a solicitudes similares.
Que las plataformas de inteligencia artificial sean menos seguras en materia de confidencialidad puede enfriar la relación entre usuarios y herramientas como ChatGPT. Mucha gente se lo piensa dos veces antes de hablar de temas íntimos con una IA precisamente por este motivo.
La falta de claridad legal sobre la privacidad es un obstáculo grave si quieres confiar asuntos de tu vida personal a un sistema automático. Según Altman, nadie pensaba hace unos años en estos detalles, pero ahora resultan cruciales justo porque cada vez más usuarios se atreven a pedir ayuda para cuestiones sensibles.
Si buscas apoyo emocional, te interesa que nadie externo sepa lo que cuentas. Hoy este nivel de seguridad no está garantizado. La inteligencia artificial necesita, además, grandes volúmenes de datos para entrenar sus sistemas. A veces, esos mismos datos pueden convertirse en objeto de demanda o vigilancia.
Al carecer de leyes específicas, las tecnológicas suelen verse forzadas a obedecer requerimientos judiciales para ceder datos, incluso si se trata de temas feos o muy personales. Eso frena la adopción masiva de IA como alternativa a terapeutas o asesores humanos y pone en jaque la confianza del usuario.
No todos los usuarios tienen claro lo que ocurre con las conversaciones privadas con ChatGPT. Si te decides a usar el sistema para hablar sobre relaciones, dudas existenciales, salud mental, sexualidad o cualquier otro asunto personal, asume que tus datos pueden no estar a salvo.
También te puede interesar:ChatGPT Amplía el Modo de Voz Avanzada para Usuarios Gratuitos de EuropaSi lo comparamos con otras profesiones protegidas, todavía estamos lejos de sentir la misma tranquilidad compartiendo experiencias personales con un robot conversacional.
Hace poco, un juez ordenó a OpenAI almacenar las conversaciones de cientos de millones de usuarios para usarlas como prueba judicial, con excepción de los usuarios empresariales que usan ChatGPT Enterprise. OpenAI ha recurrido, diciendo que esta exigencia sienta un precedente peligroso.
La decisión pone sobre la mesa hasta dónde pueden llegar los tribunales al reclamar datos ultraprivados, lo que complica la confianza en la privacidad de cualquier usuario común. Y no solo eso, sino que este tipo de casos pueden repetirse según avance la regulación de la IA.
En los últimos años, han surgido miedos fundados por la protección de información digital. Tras la revocación de la sentencia Roe v. Wade en los Estados Unidos (que cambiaba las reglas sobre el aborto), mucha gente empezó a evitar apps tradicionales, como calendarios menstruales famosos, y se inclinó hacia alternativas más seguras como Apple Health, que cifra los datos.
El caso mostró claramente que cada vez más personas quieren aplicaciones donde lo personal quede entre tú y tu móvil. Este movimiento introduce la pregunta de si ChatGPT puede seguir siendo útil para hablar de salud mental o asuntos privados si no hay una seguridad real en la gestión de datos.
Quizás te planteas usar ChatGPT como coach o “amigo digital”. En ese caso, ¿cómo puedes proteger tus secretos? Por ahora, lo más recomendable es:
También te puede interesar:The New York Times firma un acuerdo histórico de licencia para entrenar la IA de AmazonNinguna de estas soluciones equipara hoy la privacidad de un despacho profesional. Altman lo deja claro: hay que exigir mejores leyes antes de confiar plenamente en un sistema de IA para temas privados.
El uso de ChatGPT como terapeuta digital o confidente no está protegido por ninguna ley especial de secreto. Sin un marco legal robusto, la privacidad sigue siendo un punto débil. Si realmente te importa la confidencialidad, conviene que prendas las alarmas y pienses muy bien qué compartes, hasta que la protección de las conversaciones con IA iguale a la de los profesionales humanos.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.