El desarrollador de inteligencia artificial OpenAI se enfrenta recientemente a una importante crisis legal y regulatoria. El fiscal general del estado de Florida, James Uthmeier, afirma que investigará a OpenAI para aclarar si sus productos, como ChatGPT, han causado daño a menores, si representan una amenaza para la seguridad nacional y si desempeñaron un papel en ayudar a cometer delitos en el tiroteo en el campus de la Florida State University (FSU) en 2025. Al mismo tiempo, los familiares de las víctimas del tiroteo también se están preparando para presentar una demanda contra la empresa.
OpenAI se ve involucrada en el tiroteo en el campus de la universidad de Florida; el fiscal inicia una investigación
El fiscal general de Florida, Uthmeier, publicó un video en redes sociales en el que afirma que ChatGPT es muy probable que se haya usado para ayudar al autor a planificar el trágico tiroteo masivo ocurrido el año pasado en el campus de la Florida State University. Lamentablemente, el incidente se cobró dos vidas.
Subrayó que, mientras las grandes tecnológicas impulsan la innovación, no pueden poner en riesgo la seguridad pública, y tampoco tienen derecho a dañar a los niños, facilitar actividades delictivas, fortalecer la capacidad de las fuerzas hostiles de Estados Unidos ni amenazar la seguridad nacional. El fiscal señaló que emitirá citaciones y pidió a la legislatura de Florida que actúe con rapidez para prevenir los impactos negativos que podría traer la inteligencia artificial.
El sospechoso del tiroteo había preguntado repetidamente a ChatGPT; los familiares de las víctimas planean demandar para reclamar una indemnización
Al recordar el caso del tiroteo de la FSU de 2025 en abril, el ex estudiante de 21 años Phoenix Ikner abrió fuego en el campus, lo que dejó 2 muertos y 6 heridos. Posteriormente, el sospechoso fue acusado por un gran jurado, y se enfrenta a múltiples cargos, incluidas acusaciones de asesinato en primer grado y una solicitud de pena de muerte.
Los registros judiciales muestran que la cuenta de Ikner contenía hasta 272 registros de conversaciones con ChatGPT. Se alega que, antes del incidente, preguntó a la IA sobre las posibles reacciones ante el tiroteo en la FSU que ocurriría en todo el país, y sobre el horario en el que suele reunirse la multitud de estudiantes con mayor densidad.
El fallecido del incidente, Robert Morales, de 57 años, cuyos familiares designaron abogados, indicó que el sospechoso mantuvo un contacto estrecho con ChatGPT antes del hecho, y que los familiares tienen motivos para creer que la IA proporcionó consejos para cometer el crimen; actualmente se están preparando para presentar una demanda contra OpenAI.
(Investigación sobre IA: alrededor del 30% de los adolescentes estadounidenses usan a diario robots de chat con IA; aumentan las preocupaciones de seguridad)
Acusado de inducir al suicidio y de generar contenido inapropiado; OpenAI enfrenta múltiples demandas legales
Además de la controversia por el tiroteo en el campus, el chatbot de OpenAI también se enfrenta a múltiples acusaciones por presuntamente alentar a los usuarios a autolesionarse. En noviembre de 2025, el Social Media Victims Law Center y el Tech Justice Law Project presentaron 7 demandas relacionadas con el suicidio ante un tribunal de California contra OpenAI y su CEO, Sam Altman. Las denuncias acusan a la empresa de haber publicado anticipadamente el modelo GPT-4o pese a saber que su producto implicaba un riesgo de manipulación psicológica, poniendo la cuota de mercado y los indicadores de interacción por encima de la seguridad humana y la salud mental.
Por otro lado, el problema de los materiales de abuso sexual infantil generados por IA también se agrava cada vez más. Según un informe de la Fundación de Observación en Internet, en la primera mitad de 2025 las denuncias relacionadas superaron las 8.000, con un aumento del 14% interanual. Esto ha puesto a los desarrolladores de IA, incluidos OpenAI, bajo una gran presión social.
OpenAI responde destacando la seguridad, coopera activamente con la investigación y publica un plan de seguridad infantil
Ante la avalancha de cuestionamientos e investigaciones, OpenAI publicó un comunicado que confirma que, efectivamente, después del caso de abril del año pasado, se encontraron cuentas de ChatGPT vinculadas al tirador, y la empresa ya entregó proactivamente la información pertinente a las autoridades encargadas de hacer cumplir la ley. La compañía subrayó que cada semana más de 900 millones de usuarios utilizan ChatGPT para mejorar la vida diaria; el propósito original del diseño del sistema es comprender la intención de los usuarios y proporcionar respuestas seguras y adecuadas. En el futuro, la empresa también trabajará plenamente con la investigación del fiscal general de Florida.
Para disipar las dudas del público, OpenAI ha publicado recientemente de manera oficial el “Plan de Seguridad Infantil”, que propone varias recomendaciones de políticas. Estas incluyen actualizar las normativas para prevenir la generación por IA de materiales de abuso, mejorar los procedimientos para informar a las autoridades encargadas de hacer cumplir la ley y establecer mecanismos de protección más completos para impedir que las herramientas de inteligencia artificial se utilicen de forma maliciosa.
Este artículo sobre que ChatGPT fue acusado de ayudar en delitos del tiroteo de Florida, el anuncio de que se investiga a OpenAI aparece primero en la noticia en la cadena ABMedia.