Recomendó armas y munición: Fiscalía de Florida acusa a ChatGPT de asesorar a responsables de tiroteos
Las autoridades estadounidenses apuntaron al servicio como clave en dos ataques armados.
La inteligencia artificial se encuentra en el ojo público gracias a su meteórico avance dentro de la sociedad actual. Sin embargo, ahora escaló notoriamente al involucrarse en dos hechos delictivos en Florida, Estados Unidos.
Sam Altman, fundador de la empresa de IA, se encuentra en un complejo proceso legal por siete demandas federales en California, Canadá y la presión de 42 fiscales generales por el presunto asesoramiento de “Chatbot” de ChatGPT a los perpetradores de dos tiroteos en la zona.
La investigación apunta a que el registro de los chats con Phoenix Ikner indica que la IA habría recomendado armas y munición al usuario antes de llevar a cabo el tiroteo en la Universidad Estatal de Florida.
Revisa también:
Esto data desde marzo de 2024, y “Chatbot” habría propuesto una escopeta calibre 12 al atacante que mató a dos personas y dejó seis heridos.
El segundo caso es el de Jesse Van Rootselaar, autor de otro tiroteo en febrero de 2026 en la secundaria de Tumbler Ridge, que terminó con un saldo de ocho muertos.
El antecedente clave es que la empresa ChatGPT marcó las conversaciones con este asaltante como “amenaza real”, pero no alertó a la policia.
La compañía se defendió alegando que “se limitó a responder con información disponible en internet”, y que el bot no promovió estos acontecimientos.