Passer au contenu

À cause d’une conversation avec l’IA, un Français s’est retrouvé dans le viseur du FBI

Ce Français voulait « tester la surveillance de l’intelligence artificielle », mais il ne s’attendait sûrement pas à ça. Les propos adressés à une IA ont rapidement mobilisé le FBI et traversé l’Atlantique. L’affaire s’est terminée par l’intervention du RAID au domicile du trentenaire, à Strasbourg.

Le vendredi 3 avril 2026, un Strasbourgeois de 37 ans a été interpellé par le Raid, l’unité d’élite de la Police nationale, rapportent Les Dernières Nouvelles d’Alsace. C’est une simple conversation avec une IA qui a mis les forces de l’ordre sur la piste du trentenaire. Le nom de l’intelligence artificielle en question n’a pas été communiqué.

Interpellé par les autorités, l’homme explique en effet avoir voulu « tester la fiabilité et la surveillance de l’intelligence artificielle ». Dans cette optique, il a expliqué à son chatbot qu’il avait prévu d’acheter une arme à feu, un Glock, pour « tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI ». La menace, aussi factice soit-elle, a suscité l’intérêt du FBI. Le bureau fédéral américain a vraisemblablement été notifié par le développeur à l’origine de l’IA.

Les services de renseignement américains se sont tournés vers Pharos, la plateforme officielle française pour signaler des contenus ou comportements illégaux sur Internet à la police et à la gendarmerie. Sur base des informations communiquées par le FBI, les forces de l’ordre ont décidé d’intervenir sans tarder. C’est pourquoi le Raid a fait irruption au domicile du Strasbourgeois dans la journée de vendredi dernier. L’homme est sorti de garde à vue le lendemain, et l’affaire a été classée sans suite. Aucune arme n’a été retrouvée à son domicile lors du passage du Raid. En raison de ses antécédents psychiatriques, l’individu interpellé a été hospitalisé.

À lire aussi : ChatGPT et l’armée – après un accord polémique avec le pentagone, une dirigeante OpenAI démissionne par « principe »

Des données partagées en cas de danger

OpenAI, le géant de l’IA qui développe ChatGPT, ne se cache pas de « partager vos données personnelles, y compris les informations relatives à votre interaction avec nos services, avec des autorités publiques », afin de « protéger la sécurité, l’intégrité et la sûreté de nos produits, de nos employés, de nos utilisateurs ou du public ». Plus largement, toute violation des conditions d’utilisation peut aboutir au partage de données avec les autorités compétentes.

Dans ses conditions d’utilisation, ChatGPT précise que, dans des cas « très rares » de « danger grave et imminent », certains propos peuvent être transmis à des équipes humaines « et éventuellement des autorités selon les lois applicables ». La politique de confidentialité d’OpenAI va plus loin et indique explicitement que l’entreprise de Sam Altman peut partager des données personnelles « pour protéger la sécurité » de ses utilisateurs ou d’autres personnes. En outre, OpenAI peut suspendre ou fermer un compte si « le risque ou le préjudice pour OpenAI, nos utilisateurs, ou toute autre personne » est jugé trop élevé.

Même son de cloche du côté des autres mastodontes de l’intelligence artificielle. Anthropic, la start-up à l’origine de Claude, explique ne pas divulguer « d’informations sur les clients ou utilisateurs finaux de ses services en réponse à des demandes gouvernementales, sauf conformément à une procédure légale valide », ou s’il « existe une urgence pouvant entraîner un danger imminent de mort ou de blessure grave, et que la communication de ces informations peut permettre d’éviter ce danger ». Contrairement à OpenAI, Anthropic s’engage cependant à contester les demandes jugées trop larges ou vagues. Même son de cloche du côté de Google, qui peut partager des messages échangés avec Gemini afin « de protéger la sécurité des utilisateurs et du public ».

👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google, et abonnez-vous à notre canal WhatsApp.

Source : Les Dernières Nouvelles d’Alsace


Florian Bayard