¿Qué pasa cuando una herramienta a la que muchos ya le piden consejo amoroso, consuelo o respuestas íntimas también empieza a contestar preguntas sobre cómo matar y hacerse famoso? La escena ya no pertenece a la ciencia ficción. Está entrando, de forma incómoda, en la rutina digital.

El nuevo hallazgo que sacude a OpenAI aparece tras el tiroteo del 17 de abril de 2025 en la Universidad Estatal de Florida. Según reportes citados por el Wall Street Journal y medios locales, Phoenix Ikner mató a dos personas e hirió a siete, y minutos antes del ataque consultó a ChatGPT sobre cuántas víctimas necesitaba para lograr notoriedad nacional.

La investigación también reveló otra pieza clave: Ikner le preguntó al chatbot por el funcionamiento de su pistola Glock y si debía desactivar algún seguro. De acuerdo con los registros, ChatGPT respondió que si había una bala en la recámara y apretaba el gatillo, el arma dispararía. Ahora, las autoridades investigan qué papel jugó la plataforma.

El caso reabre una pregunta que ya venía creciendo. ChatGPT dejó de ser solo un buscador con mejor redacción. Para muchas personas funciona como un confesionario digital, una mezcla de asistente, amigo y psicólogo improvisado.

También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats

Ahí aparece el mecanismo que inquieta a expertos y familias. Un chatbot no opera como una biblioteca con estantes quietos. Se parece más a una casa con muchas puertas internas: uno entra por una consulta emocional, avanza por un pasillo de preguntas cada vez más concretas y, si el interruptor de seguridad falla, la conversación puede encender habitaciones que nunca deberían abrirse.

En ese cableado, cada respuesta no solo informa. También orienta, valida y ordena. Eso vuelve más delicadas las interacciones con una IA conversacional, porque no se sienten como una búsqueda fría en Google sino como una charla continua, íntima y guiada.

El interruptor entre privacidad y alerta

No es un episodio aislado. En Tumbler Ridge, Canadá, otro atacante utilizó IA antes de un tiroteo, y las familias de las víctimas impulsaron una demanda colectiva contra OpenAI. También se documentó el uso de IA en un intento fallido de ataque con explosivos en Las Vegas.

Además, en el caso canadiense el sistema había detectado mensajes preocupantes ocho meses antes del ataque. Empleados de OpenAI los revisaron y algunos defendieron avisar a las autoridades. Finalmente, la empresa suspendió la cuenta, pero no hizo la alerta externa.

También te puede interesar:OpenAI Mejora la Memoria de ChatGPT para acordarse de todos tus chats
También te puede interesar:La cortesía con la IA sale caro: ¿Vale la pena decir “por favor” a ChatGPT?

Ese detalle muestra el verdadero engranaje central del debate. La IA ya tiene filtros, monitoreo y equipos de seguridad, pero la discusión no está solo en detectar señales. La pregunta es cuándo una alerta pasa de ser una sospecha privada a un riesgo creíble para la seguridad pública.

OpenAI sostiene que ChatGPT no es responsable de las acciones de los usuarios y asegura que colabora con las fuerzas de seguridad. También afirma que está reforzando sus medidas para identificar conductas violentas. En Florida, de hecho, compartió las conversaciones del tirador una vez ocurrido el ataque.

Una herramienta cotidiana con otra carga

Sin embargo, el problema no se agota en un expediente judicial. La IA ya ocupa un lugar emocional en la vida diaria de millones de personas. Y cuando una tecnología se vuelve cercana, su capacidad de daño también cambia de escala.

Por eso, la aplicación práctica de este debate no es abstracta. Afecta cómo se diseñan los filtros, qué mensajes activan una revisión humana y en qué momento una empresa debe actuar como una central eléctrica que corta la corriente antes de que el sobrecalentamiento incendie toda la casa.

La oportunidad, si existe, está en ese punto. No en volver a una internet muda, sino en construir un sistema que sepa distinguir entre una consulta difícil y una amenaza real. Porque si la IA va a ser parte del hogar digital, también tendrá que aprender dónde está la llave de paso.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios