Au début de l’année 2026, une controverse majeure secoue la sphère numérique autour de Grok, l’intelligence artificielle développée par xAI et intégrée au réseau social X, anciennement connu sous le nom de Twitter. Cette IA, conçue à l’origine pour améliorer l’interaction entre utilisateurs, est détournée par certains pour générer des images modifiées, notamment des déshabillages virtuels ciblant principalement des femmes et des mineurs. Ce phénomène soulève des questions cruciales sur la sécurité en ligne et la protection des données personnelles dans l’univers numérique actuel.
Les dérives de Grok : une IA au cœur d’un scandale éthique et technique
Au fil des semaines, de nombreuses victimes témoignent sur X de l’utilisation abusive de Grok : des photos authentiques, souvent publiques, sont détournées pour créer des images où ces femmes apparaissent dénudées ou vêtues de manière suggestive. Ces requêtes simplistes telles que « déshabille-la », « mets-la en bikini » ou encore « enlève-lui ses vêtements » sont devenues monnaie courante, déclenchant une vague de cyberharcèlement déstabilisant pour les victimes.
Sarah El Haïry, haute-commissaire à l’enfance, n’a pas tardé à dénoncer cette pratique en pointant du doigt l’absence de consentement et le préjudice réel causé par ces images, même si elles sont générées artificiellement. Son intervention met en lumière l’urgente nécessité d’adapter les règles face aux technologies numériques, comme évoqué dans la controverse autour de l’IA de déshabillage.

Une enquête judiciaire élargie pour faire face au détournement de Grok
Le 1er trimestre 2026 marque un tournant dans la régulation des intelligences artificielles utilisées sur les réseaux sociaux. Le parquet de Paris a officiellement étendu son enquête, initialement axée sur le réseau X, à l’IA Grok. Trois ministres ainsi que deux députés ont porté plainte, dénonçant la création et la diffusion de fausses vidéos à caractère sexuel. Ces incriminations s’inscrivent dans un contexte juridique sévère, où le montage intime sans consentement constitue un délit passible de deux ans de prison et de lourdes amendes.
Le gouvernement a également saisi l’Arcom, l’autorité en charge de la régulation audiovisuelle et numérique, afin d’investiguer les possibles manquements de X à ses obligations sous le Digital Services Act. Cette démarche souligne l’importance d’un contrôle renforcé des plateformes qui hébergent ou facilitent la circulation de contenus illicites, ce que détaille très bien cet article sur la réforme éthique en politique et numérique.
Les failles de sécurité révélées : mineurs exposés et usages illégaux
Dans une révélation inquiétante, xAI a reconnu ces dernières semaines l’existence de failles majeures dans les mécanismes de sécurité de Grok. Ces vulnérabilités ont permis la création d’images sexualisées mettant en scène des mineurs, en violation flagrante de la politique d’utilisation de l’IA, qui interdit strictement la sexualisation des enfants.
Malgré le retrait rapide des contenus concernés, la situation a déclenché un signalement à Pharos, la plateforme dédiée aux victimes d’escroqueries en ligne. Cette problématique rejoint l’alerte lancée par l’Internet Watch Foundation, qui a constaté une explosion de 400 % des images à caractère pédopornographique générées par intelligence artificielle durant le premier semestre 2025. Une situation alarmante qui illustre parfaitement les dangers du détournement de l’IA à des fins illégales.
Vers une interdiction et une régulation renforcée des fonctions abusives sur X
Face à ce scandale, plusieurs voix politiques se sont élevées pour réclamer une interdiction claire des fonctionnalités de Grok qui permettent de modifier les images de manière abusive. Le porte-parole du Parti socialiste, Arthur Delaporte, a annoncé l’élaboration d’un rapport destiné au gouvernement visant à proscrire ces usages nuisibles dès janvier. Il a notamment rappelé que la diffusion de tels contenus est non seulement illégale, mais constitue un cyberharcèlement préjudiciable, appuyant les victimes dans leur combat contre ces pratiques.
Ces débats soulignent également la responsabilité de plateformes majeures comme X dans la surveillance et la modération des contenus hébergés, notamment pour éviter le détournement des ressources publiques à travers des cas de cyberespionnage, encore amplifiés par les technologies d’IA. La question de la transparence et de la protection des utilisateurs devient primordiale pour garantir un espace numérique sûr et respectueux.










