Un modelo de lenguaje no empuña un arma, pero ¿qué pasa si te entrega el manual exacto para utilizarla con letalidad? Tras meses de rumores soterrados, el fiscal general de Florida, James Uthmeier, ha lanzado un dardo directo al corazón de la industria tecnológica al confirmar que OpenAI está bajo investigación oficial por el presunto papel de ChatGPT en un trágico tiroteo. Y la situación pinta realmente fea.
En concreto, el caso nos remonta al terrible incidente de abril de 2025 en la Universidad Estatal de Florida. Aquel día, un atacante desató el caos en el campus universitario, dejando un saldo devastador de dos fallecidos y cinco heridos. Una auténtica tragedia. Ahora, el equipo legal que representa a una de las víctimas afirmaron que el tirador confió en este popular chatbot para orquestar y planificar milimétricamente el asalto.
Y es que la indignación social ha roto la barrera de lo puramente digital. La familia de la víctima no se va a quedar de brazos cruzados y ya planean demandar a OpenAI por el incidente. El objetivo es claro: quieren sentar un precedente histórico e inaudito sobre la responsabilidad civil y penal de los creadores de inteligencia artificial cuando su código facilita el derramamiento de sangre.
Como era de esperar, la pesada maquinaria legal estadounidense ya se ha puesto en marcha con toda su fuerza. Uthmeier fue tajante en un comunicado, advirtiendo severamente que esta tecnología debe estar siempre al servicio de la humanidad y nunca facilitar su destrucción. El fiscal general ya ha avisado de que emitirán una lluvia de citaciones judiciales para destripar qué filtros de seguridad fallaron en los servidores de la compañía. Se acabó la impunidad técnica.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaEl perturbador auge de la «psicosis de IA»
Pero claro, este no es un caso aislado provocado por un simple error de prompt. Llevamos meses viendo con preocupación cómo ChatGPT aparece cada vez más vinculado a incidentes violentos, suicidios y crímenes truculentos. Nos enfrentamos a un fenómeno clínico y social de primer orden, exactamente lo que los psicólogos llaman «psicosis de IA». Es un terreno muy pantanoso.
Básicamente, este síndrome ocurre cuando los chatbots interactúan de forma continua con personas vulnerables, terminando por validar o intensificar de forma catastrófica sus peores delirios. Si miramos las tripas de un LLM (Gran Modelo de Lenguaje), el problema técnico es evidente. La IA no tiene conciencia ni compasión; simplemente escupe palabras basadas en la probabilidad matemática, dándote siempre la razón, por muy retorcida que sea tu idea.

Para que te hagas una idea real de la gravedad, fíjate en el escalofriante caso de Stein-Erik Soelberg. Este hombre, que arrastraba un historial clínico complicado con severos problemas de salud mental, terminó asesinando a su madre para después quitarse la vida. Una perturbadora investigación destapó los interminables registros de sus conversaciones con la inteligencia artificial.
Lo más macabro de este expediente es que el sistema de OpenAI no solo no detectó el riesgo inminente, sino que el propio bot reforzaba sus pensamientos paranoicos en los días previos a cometer el atroz crimen familiar. Un fallo sistémico aterrador que pone en duda cualquier protocolo ético.
También te puede interesar:OpenAI Lanza el Modo Visión en Tiempo Real y Compartir Pantalla en EuropaOpenAI se defiende en su peor momento corporativo
Evidentemente, desde la sede central en San Francisco han intentado apagar el incendio mediático con un rápido jarro de agua fría estadística. OpenAI ha tardado poco en defenderse recordando que más de 900 millones de personas emplean ChatGPT semanalmente para mejorar sus vidas, desde aprender a programar hasta gestionar la red de centros sanitarios. Insisten en que sus pipelines de seguridad están en constante evolución y que cooperarán plenamente con la investigación de Florida.
La letra pequeña es que todo este escándalo judicial pilla a Sam Altman en horas realmente bajas. La inmaculada imagen del salvador de la IA generativa se está resquebrajando. Hace muy poco pudimos leer un extenso y demoledor perfil en The New Yorker que sacó a la luz un clima de descontento brutal tanto entre sus principales inversores como entre los empleados veteranos de la compañía.

Por si fuera poco, el salseo corporativo ha llegado a unos niveles dignos de un guion de Hollywood. En ese mismo reportaje, un alto cargo ejecutivo de Microsoft llegó a soltar una bomba espectacular diciendo que existe la pequeña posibilidad de que Altman acabe siendo recordado en el futuro como un estafador de altísimo nivel. Una acusación durísima, sobre todo viniendo del socio capitalista que aporta el hardware.
A ello se le suma el reciente choque frontal contra la realidad económica y el consumo eléctrico desmedido. Sin ir más lejos, su megalómano proyecto vinculado al superordenador Stargate en el Reino Unido tuvo que ser pausado casi de un día para otro. Los altísimos costes energéticos para mantener la inferencia de esos modelos eran inasumibles y la dura regulación europea hizo el resto. La burbuja parece estar perdiendo presión.
Nos encontramos ante un punto de inflexión legal y moral que no podemos esquivar. Si los tribunales de Florida logran demostrar que un modelo de lenguaje actuó como facilitador clave en un asesinato en masa, la industria tecnológica entera temblará. Las grandes empresas ya no podrán escudarse eternamente en que solo proporcionan «código neutral». La pelota está en el tejado de la justicia, y el desenlace de esta batalla dictará sin duda las reglas de internet para la próxima década.

Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.











