Propos menaçants à une IA : le RAID intervient chez un Strasbourgeois
L’affaire pourrait sembler surréaliste, pourtant elle révèle une réalité bien concrète : les conversations avec les intelligences artificielles sont surveillées. Un incident récent en Alsace montre comment une simple discussion en ligne peut déclencher une intervention policière internationale en quelques heures à peine.
Une conversation piégée avec un chatbot
Le 3 avril dernier, un habitant de Strasbourg âgé de 37 ans a reçu la visite du RAID à son domicile. La raison ? Des propos menaçants tenus lors d’un échange avec une intelligence artificielle.
L’homme avait déclaré vouloir s’en prendre à un membre de la CIA, du Mossad ou de la DGSI. Une menace qui n’est pas restée sans conséquence, malgré sa nature virtuelle.
Selon ses déclarations ultérieures, il cherchait simplement à « tester la fiabilité » de l’IA. Un test qui lui a coûté une intervention des forces spéciales françaises.
Du FBI au RAID en quelques heures
La réactivité des autorités dans cette affaire est impressionnante. Le FBI a intercepté le message en temps réel avant de transmettre l’information aux services français via la plateforme Pharos.
L’intervention musclée du RAID a été menée rapidement au domicile du trentenaire. Aucune arme n’a été découverte lors de la perquisition.
Une issue psychiatrique plutôt que judiciaire
La garde à vue a été levée dès le lendemain de l’interpellation. L’affaire a été classée sans suite sur le plan judiciaire.
Toutefois, l’homme n’a pas retrouvé immédiatement sa liberté. Des antécédents de troubles psychiatriques ont justifié une hospitalisation d’office.
Les IA, nouveaux mouchards numériques
Cet événement met en lumière le rôle grandissant de l’intelligence artificielle dans la surveillance des citoyens. Les algorithmes ne se contentent plus d’analyser : ils alertent.
Outre-Atlantique, le débat sur l’utilisation sécuritaire de ces technologies par l’administration fait rage. Certaines entreprises refusent d’ailleurs de participer à cette surveillance.
Des géants de la tech aux positions divergentes
Anthropic, entreprise californienne spécialisée dans l’IA, a refusé que son modèle serve à la surveillance citoyenne. Une position éthique qui contraste avec d’autres acteurs du secteur.
Face à ce refus, le département américain de la Défense s’est tourné vers OpenAI. Cette société affirme que les signalements aux autorités n’interviennent qu’en cas de « danger grave et imminent ».
Des alertes rares mais efficaces
OpenAI insiste sur le caractère exceptionnel de ces signalements. Ils seraient rares, ciblés et non automatiques selon la firme.
Pourtant, l’incident strasbourgeois démontre une réactivité technique remarquable. Entre la conversation et l’intervention du RAID, seulement quelques heures se sont écoulées.
Cette affaire soulève des questions fondamentales sur la frontière entre sécurité publique et liberté d’expression dans l’ère numérique.

