Se revela un caso que hoy vuelve a poner bajo la lupa a OpenAI y a la Real Policía Montada de Canadá (RCMP). La empresa evaluó en 2025 si debía alertar a las autoridades por la actividad en línea de Jesse Van Rootselaar, que meses después cometería uno de los peores tiroteos escolares en la historia reciente del país.

En junio de 2025, los sistemas de detección de abuso de OpenAI identificaron la cuenta de Van Rootselaar por “promoción de actividades violentas” y la bloquearon por violar su política de uso. Sin embargo, la compañía consideró que lo visto no alcanzaba el umbral para contactar a la RCMP: un riesgo inminente y creíble de causar daños físicos graves.

Nueva Versión de OpenAI Codex Impulsada por un Chip Dedicado

El sargento Kris Clark confirmó oficialmente que OpenAI contactó a las autoridades canadienses después del ataque.

Ocho meses después del bloqueo, Van Rootselaar, de 18 años, mató a ocho personas en Tumbler Ridge, una localidad remota de unos 2700 habitantes en la Columbia Británica, y murió por una herida de bala autoinfligida. La secuencia fue devastadora: primero asesinó a su madre (39) y a su hermanastro (11) en la vivienda familiar cercana a la escuela. Luego se dirigió al colegio y asesinó a una profesora (39), a tres alumnas de 12 años y a dos alumnos de 12 y 13 años.

También te puede interesar:OpenAI Explica Cómo Será el Proceso Iterativo de Sus Anuncios Publicitarios

Además, 27 personas resultaron heridas, incluidas dos evacuadas en helicóptero con lesiones que ponían en riesgo su vida. Un estudiante, Darian Quist, relató que a las 13:30 sonó la alarma de confinamiento y él y sus compañeros bloquearon la puerta con mesas. Permanecieron atrincherados más de dos horas, hasta que la policía los escoltó fuera del edificio.

El subcomisionado Dwayne McDonald identificó a la sospechosa como Jesse Van Rootselaar, una joven trans de 18 años. También señaló antecedentes de contactos con la policía vinculados a problemas de salud mental, y que habían acudido en múltiples ocasiones a la residencia familiar en los últimos años por ese motivo.

El “interruptor” que mira la IA y el que pide la ley

Para entender la pieza clave de esta historia hay que traducir el mecanismo de “detección de abuso” (filtros automáticos de contenido). Funciona como un tablero eléctrico: varios interruptores revisan patrones y, si ven riesgo, cortan la corriente. En este caso, el sistema cortó el servicio: la cuenta fue bloqueada.

Pero avisar a la policía es otra llave. Es como pasar de apagar un artefacto a llamar a los bomberos. OpenAI sostiene que solo lo hace cuando detecta señales que indiquen una amenaza concreta y próxima, no solo contenido violento en términos generales.

También te puede interesar:OpenAI Explica Cómo Será el Proceso Iterativo de Sus Anuncios Publicitarios
También te puede interesar:“Quiero Matar a Mi Familia”: Qué Hace OpenAI Cuando ChatGPT Lee Confesiones Así

Ahí aparece el engranaje más incómodo: el umbral. La empresa afirmó que no identificó una planificación creíble ni inminente de violencia que justificara avisar a la RCMP en ese momento. Después del tiroteo, empleados de OpenAI contactaron proactivamente a la policía para aportar información sobre el usuario y su uso de ChatGPT, y un portavoz indicó que seguirán colaborando con la investigación.

Qué revisa la policía y por qué este caso es una oportunidad (difícil) de aprendizaje

Ahora, las autoridades realizan una revisión exhaustiva del contenido en los dispositivos electrónicos de Van Rootselaar, además de sus redes sociales y actividad en línea. Según la RCMP, la recopilación y el procesamiento de pruebas digitales y físicas se hace de forma priorizada y metódica. El móvil del ataque sigue sin estar claro.

El caso golpea más fuerte por el contexto canadiense: hay leyes de armas más estrictas que en Estados Unidos y los ataques masivos son menos frecuentes. Tumbler Ridge se convirtió en la masacre más mortífera del país desde 2020, cuando un hombre armado mató a 13 personas en Nueva Escocia y provocó incendios con otras nueve muertes.

La pregunta que queda flotando no es solo tecnológica, es doméstica: cómo se calibra un sistema para que detecte humo sin convertir cada tostada quemada en una falsa alarma. En esa calibración, el cableado entre plataformas, protocolos y fuerzas de seguridad puede ser la diferencia entre cortar la corriente a tiempo o llegar cuando la casa ya está en llamas.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios