Florida abre investigación contra OpenAI por presunto vínculo con tiroteo
Publicado el 21/04/2026 a las 18:53
- Florida investiga uso de IA
- ChatGPT vinculado a tiroteo
- Debate legal sobre inteligencia artificial
El fiscal general de Florida, James Uthmeier, anunció este martes una investigación criminal contra OpenAI por el uso de su herramienta ChatGPT en un caso de tiroteo masivo ocurrido en 2025.
El caso abre un debate legal sobre si una empresa de inteligencia artificial puede ser considerada responsable por influir en actos criminales.
Fiscalía señala posible responsabilidad de ChatGPT
#HCHInternacionales | El fiscal general de Florida, James Uthmeier, anunció este martes una investigación criminal contra la empresa OpenAI y su herramienta de inteligencia artificial ChatGPT, por presuntamente «aconsejar» al responsable de un tiroteo masivo que dejó dos muertos… pic.twitter.com/tibma16DGN
— HCH Televisión Digital (@HCHTelevDigital) April 21, 2026
Segun la agencia EFE, uthmeier informó que la investigación surge tras revisar conversaciones entre ChatGPT y Phoenix Ikner, estudiante de 21 años acusado del tiroteo.
El ataque dejó dos muertos y siete heridos en la Universidad Estatal de Florida en abril de 2025.
Según el fiscal, el sistema habría ofrecido “consejos significativos” antes del crimen.
Entre estos, mencionó recomendaciones sobre el tipo de arma y municiones adecuadas.
“Florida está liderando el camino en tomar medidas enérgicas contra el uso de la IA en el comportamiento criminal”, declaró Uthmeier.
El funcionario aseguró que, si ChatGPT fuera una persona, enfrentaría cargos por asesinato.
TE PUEDE INTERESAR: Retiran gel médico por contaminación: alerta por riesgo en pacientes vulnerables
La investigación busca determinar si OpenAI tiene responsabilidad penal en el caso.
La legislación estatal contempla como delito “ayudar, incitar o aconsejar” a alguien que comete un crimen.
Autoridades exigen información a OpenAI

Como parte del proceso, las autoridades emitieron un citatorio contra la empresa.
OpenAI deberá entregar políticas internas y materiales de entrenamiento relacionados con riesgos de daño a terceros.
También se solicitó información sobre protocolos de cooperación con autoridades.
Además, se pidió una lista de directivos, gerentes y empleados.
Mark Glass, comisionado del Departamento de Aplicación de la Ley de Florida, subrayó la relevancia del caso.
Indicó que es necesario comprender los riesgos de esta tecnología y su impacto en las comunidades.
El funcionario señaló que la IA ya ha causado daños que deben ser analizados.
Crece el debate legal sobre la inteligencia artificial
El caso se enmarca en un contexto más amplio de acciones legales en Florida contra empresas de inteligencia artificial.
En marzo, una familia presentó una demanda contra el chatbot Gemini.
El reclamo sostiene que el sistema indujo a un hombre al suicidio al hacerle creer que mantenían una relación romántica.
También argumentan que la herramienta le hizo pensar que su muerte era necesaria.
Estos casos han intensificado el debate sobre la regulación de la IA.
El gobernador Ron DeSantis anunció en diciembre su intención de impulsar leyes estatales sobre esta tecnología.
Las propuestas incluyen regulación de centros de datos y medidas de protección para usuarios.
Sin embargo, estas iniciativas contrastan con la postura del presidente Donald Trump.
El mandatario ha pedido una normativa federal única para evitar regulaciones estatales.
La investigación contra OpenAI podría marcar un precedente sobre los límites legales de la inteligencia artificial.
Las autoridades evaluarán si la empresa tuvo un rol en los hechos y si la ley estatal puede aplicarse en este tipo de tecnología.