ChatGPT est soupçonné d’avoir été utilisé pour aider le criminel de la fusillade en Floride ; le procureur général annonce une enquête contre OpenAI

Le développeur d’intelligence artificielle OpenAI fait face récemment à une grave crise juridique et réglementaire. Le procureur général de Floride James Uthmeier (James Uthmeier) a déclaré qu’il mènerait une enquête sur OpenAI, afin d’établir si ses produits, dont ChatGPT, ont causé des préjudices aux mineurs, s’ils menacent la sécurité nationale et s’ils ont joué un rôle d’aide à la commission d’un crime lors de l’attaque par arme à feu dans le campus de la Florida State University (FSU) en 2025 à Floride. Parallèlement, les membres de la famille des victimes de l’attaque se préparent également à intenter un procès contre la société.

OpenAI impliqué dans l’attaque par arme à feu sur le campus de l’université en Floride, le procureur général lance une enquête

Le procureur général de Floride Uthmeier a publié une vidéo sur les réseaux sociaux, indiquant que ChatGPT a très probablement été utilisé pour aider l’auteur à planifier la fusillade de grande ampleur sur le campus de la Florida State University survenue l’an dernier en Floride, tragédie qui a malheureusement coûté la vie à deux personnes.

Il a souligné que, tandis que les géants de la technologie font avancer l’innovation, ils ne peuvent pas mettre en danger la sécurité du public, et n’ont pas non plus le droit de nuire aux enfants, de faciliter des activités criminelles, de renforcer les capacités des forces hostiles américaines ou de menacer la sécurité nationale. Le procureur général a indiqué qu’il émettrait des assignations à comparaître et a appelé les instances législatives de Floride à agir rapidement, afin de prévenir les effets négatifs liés à l’intelligence artificielle.

L’auteur de la fusillade demandait fréquemment ChatGPT ; les familles des victimes envisagent d’intenter une action en justice pour obtenir réparation

En revenant sur l’affaire de la FSU d’avril 2025, le tir de l’ancien étudiant de 21 ans Phoenix Ikner sur le campus a fait 2 morts et 6 blessés. L’auteur a ensuite été inculpé par un grand jury, faisant face à plusieurs accusations, y compris un meurtre au premier degré, ainsi qu’à une demande de peine de mort.

Les dossiers judiciaires montrent que le compte d’Ickner contient jusqu’à 272 enregistrements de conversation avec ChatGPT. Selon les allégations, avant les faits, il avait demandé à une IA quelles réactions pourraient se produire à l’échelle nationale face à l’attaque de la FSU, ainsi qu’à quels moments la foule des étudiants serait la plus dense.

Parmi les victimes décédées dans cet incident, le défunt de 57 ans Robert Morales. L’avocat mandaté par la famille a indiqué que l’auteur entretenait, avant les faits, des contacts étroits avec ChatGPT. La famille a des raisons de croire que l’IA a fourni des conseils criminels ; elle prépare actuellement un procès contre OpenAI.

(Recherche sur l’intelligence artificielle : environ 30 % des adolescents américains utilisent chaque jour des robots de discussion d’IA, et les inquiétudes en matière de sécurité augmentent)

Accusé d’avoir incité au suicide et de générer un contenu inapproprié, OpenAI fait face à plusieurs poursuites judiciaires

Outre la controverse liée à l’attaque sur le campus, le chatbot d’OpenAI fait également l’objet de plusieurs accusations pour avoir prétendument encouragé les utilisateurs à s’automutiler. En novembre 2025, le Social Media Victims Law Center et le Tech Justice Law Project ont déposé, devant un tribunal en Californie, 7 poursuites liées à des questions de suicide contre OpenAI et son PDG, Sam Altman. La plainte accuse la société d’avoir publié à l’avance le modèle GPT-4o, malgré le fait qu’elle connaissait les risques de manipulation psychologique de son produit, en plaçant la part de marché et les indicateurs d’interaction au-dessus de la sécurité humaine et de la santé mentale.

Par ailleurs, le problème des contenus d’abus sexuel sur enfants générés par l’IA s’aggrave également. D’après le rapport de la Fondation d’observation sur Internet, au premier semestre 2025, le nombre de signalements liés à ces affaires dépasse 8 000, soit une hausse de 14 % en un an. Cela exerce une pression sociale considérable sur les développeurs d’IA, y compris OpenAI.

OpenAI répond en mettant l’accent sur la sécurité, coopère activement à l’enquête et publie l’OpenAI « plan de sécurité pour les enfants »

Face à un déluge de critiques et à des enquêtes, OpenAI a publié une déclaration confirmant qu’elle avait bien découvert, après l’affaire du mois d’avril de l’an dernier, des comptes ChatGPT associés au tireur, et qu’elle avait déjà fourni de son propre chef les informations concernées aux services répressifs. La société a souligné que plus de 900 millions d’utilisateurs utilisent ChatGPT chaque semaine pour améliorer leur vie quotidienne ; la conception initiale du système vise à comprendre l’intention des utilisateurs et à leur apporter des réponses sûres et appropriées, et qu’à l’avenir elle coopérera pleinement avec l’enquête du procureur général de Floride.

Afin d’apaiser les inquiétudes du public, OpenAI a récemment publié officiellement son « plan de sécurité pour les enfants », présentant plusieurs recommandations de politique, notamment la mise à jour des réglementations visant à prévenir les contenus d’abus générés par l’IA, l’amélioration des procédures de notification aux services d’application de la loi, ainsi que la mise en place de mécanismes de protection plus complets, afin d’empêcher que les outils d’intelligence artificielle ne soient utilisés de manière malveillante.

Cet article ChatGPT est accusé d’avoir aidé à commettre un crime lors de l’attaque par arme à feu en Floride, le procureur général annonce une enquête, qui apparaît au plus tôt sur Chaine d’actualités ABMedia.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire