El fiscal general de Florida, James Uthmeier, anunció este jueves la apertura de una investigación formal contra OpenAI, la empresa matriz de ChatGPT, tras hallarse indicios de que el sistema de inteligencia artificial fue utilizado por el autor de un tiroteo masivo en la Universidad Estatal de Florida (FSU) en 2025. La pesquisa, que incluirá citaciones judiciales inmediatas, busca determinar la responsabilidad de la compañía en la facilitación de información crítica para la comisión de delitos y el impacto negativo de sus productos en la salud mental de los menores de edad.
El eje de la investigación se centra en los registros digitales de Phoenix Ikner, el joven de 21 años que en abril de 2025 asesinó a dos personas e hirió a cinco más en el campus de la FSU. Según documentos judiciales, Ikner mantuvo más de 270 conversaciones con ChatGPT en las que consultó sobre métodos de suicidio, la afluencia de personas en el sindicato estudiantil y, de manera alarmante, preguntó cómo desactivar el seguro de una escopeta apenas tres minutos antes de abrir fuego.
Este hallazgo ha impulsado a la firma de abogados Brooks, LeBoeuf, Foster, Gwartney and Hobbs a preparar una demanda civil en nombre de las familias de las víctimas. El caso es jurídicamente histórico: al ser la IA la que «genera» y participa en la conversación, los expertos sugieren que OpenAI podría no estar protegida por la Sección 230, la ley federal que tradicionalmente exonera a las plataformas digitales por el contenido que publican sus usuarios.
Seguridad nacional y protección infantil bajo la lupa
Más allá del tiroteo, la fiscalía de Florida investiga otros frentes críticos asociados al uso de la inteligencia artificial:
- Abuso Infantil (CSAM): Se indaga la capacidad de la IA para generar material de abuso sexual infantil, tras un reporte que indica un aumento del 14% en denuncias de este tipo de contenido generado por computadora en 2025.
- Seguridad Nacional: Uthmeier planteó la posibilidad de que los datos masivos recopilados por OpenAI sean vulnerables ante el gobierno de China, elevando la investigación a un nivel de preocupación por la soberanía estadounidense.
- Salud Mental: La vinculación del chatbot con casos de autolesiones y suicidio en menores, bajo la premisa de que la tecnología no debería «conducir a una crisis existencial».
La respuesta de OpenAI y el nuevo marco de seguridad
OpenAI, que ya colabora con las autoridades policiales desde el tiroteo en la FSU, emitió un comunicado reafirmando su compromiso con la seguridad y la mejora constante de sus filtros. Casualmente, el anuncio del fiscal se produce solo un día después de que la empresa lanzara su «Child Safety Blueprint», un marco de políticas que propone actualizar leyes estatales para que el material generado por IA sea catalogado formalmente como abuso sexual infantil y se prohíba estrictamente su producción, incluso bajo solicitud explícita del usuario.
El desenlace de esta investigación podría marcar el primer gran precedente mundial sobre la responsabilidad civil y penal de los desarrolladores de inteligencia artificial por las acciones de sus usuarios.

