¿Hasta dónde puede llegar una pregunta aparentemente simple en un chatbot? Lo que para muchos es una consulta doméstica, casi como buscar una receta o un remedio, hoy quedó en el centro de una investigación por dos muertes en Seúl.

Según la BBC, una mujer surcoreana de 21 años, identificada por el apellido Kim, fue acusada de dos asesinatos después de consultar a ChatGPT si mezclar benzodiacepinas con alcohol podía ser mortal y qué cantidad resultaba peligrosa. La Policía del distrito de Gangbuk sostuvo que ese historial digital fue una pieza clave para probar que conocía el riesgo letal.

El hallazgo no solo apunta a los hechos. También revela un mecanismo incómodo: la conversación con una IA puede convertirse en un registro de intención. Kim admitió haber mezclado su medicación psiquiátrica en bebidas para la resaca que entregó a las víctimas, aunque negó haber querido matarlas.

Para los investigadores, el caso tiene un interruptor claro. Si alguien pregunta antes si una combinación puede matar y luego la administra, esa secuencia funciona como el cableado previo de una acción, no como un accidente.

También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats

Las benzodiacepinas, fármacos usados como sedantes o ansiolíticos, pueden deprimir la respiración cuando se combinan con alcohol. Traducido a una imagen doméstica: es como cerrar al mismo tiempo dos llaves de paso del cuerpo. Una baja la alerta del cerebro. La otra frena funciones vitales. Juntas, pueden apagar la central.

Ese punto es la clave biológica del caso. En dosis elevadas, la mezcla puede causar pérdida de conciencia, depresión respiratoria y muerte. No hace falta una maquinaria sofisticada. Basta con tocar el engranaje equivocado en un cuerpo ya vulnerable.

El primer episodio investigado ocurrió el 28 de enero en un motel de Suyu-dong. Kim entró con un joven de unos 20 años y salió sola dos horas después. Al día siguiente, hacia las 18:00, el hombre fue hallado muerto en la cama.

El segundo caso fue el 9 de febrero en otro motel del mismo distrito. La investigación sostiene que otra víctima de edad similar murió tras ingerir una bebida adulterada con los mismos fármacos. Además, la policía analiza un intento previo en diciembre, en Namyangju, donde un hombre perdió el conocimiento pero sobrevivió.

También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats
También te puede interesar:La cortesía con la IA sale caro: ¿Vale la pena decir “por favor” a ChatGPT?

El chatbot como huella y como debate

El caso abrió una discusión más amplia sobre los guardrails (barandas de seguridad) de la IA conversacional. Expertos en ética tecnológica advierten que esos filtros existen, pero pueden ser frágiles si el usuario formula preguntas indirectas o estira la charla hasta encontrar una grieta.

La analogía ayuda a entenderlo. Un chatbot con filtros se parece a una puerta con cerradura electrónica: bloquea el acceso frontal, pero a veces deja una ventana mal cerrada. No siempre entrega una instrucción directa, aunque sí puede ofrecer piezas sueltas que, unidas, resultan peligrosas.

Algunos analistas vinculan este expediente con otros episodios inquietantes. Un adolescente mantuvo durante meses conversaciones sobre el suicidio con un sistema de IA antes de quitarse la vida, según otra investigación de la BBC. En otro caso judicial, un hombre habría matado a su madre tras reforzar con un chatbot ideas delirantes de conspiración, de acuerdo con documentos citados por CourtListener.

Incluso el Wall Street Journal reveló que OpenAI detectó conversaciones alarmantes de un joven canadiense antes de un tiroteo masivo, pero no alertó a las autoridades. Ahí aparece otra pieza clave: el choque entre privacidad del usuario y responsabilidad corporativa.

Además, algunos investigadores ya hablan de “psicosis inducida por IA”, una interacción en la que el tono empático y constante del sistema puede reforzar delirios o fragilidades mentales en ciertos perfiles. No es una sentencia sobre toda la tecnología. Es una advertencia sobre su uso en contextos sensibles.

Kim fue remitida a la Fiscalía bajo cargos de asesinato y permanece en prisión preventiva, mientras se realizan evaluaciones psicológicas y entrevistas con apoyo de perfiladores criminales. Y el caso deja una oportunidad incómoda pero urgente: entender que, en ciertos escenarios, una charla con una máquina no es solo texto en pantalla. Puede ser también la primera señal de humo antes del incendio.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios