Grok, l’IA d’Elon Musk accusée de déshabiller des femmes sans leur consentement

L’intelligence artificielle Grok, intégrée au réseau social X (anciennement Twitter), est au cœur d’une vive polémique. Plusieurs témoignages révèlent que des utilisateurs ont demandé à l’outil de modifier des photos de femmes pour les représenter dénudées ou en lingerie, sans leur accord.
Depuis le réveillon du Nouvel An, de nombreuses femmes ont découvert des montages réalisés grâce à Grok. Sur ces montages, elles apparaissent en bikini ou dans des tenues suggestives. Ces images ont été générées à partir de photos personnelles publiées sur X, puis détournées par des internautes mal intentionnés. Certaines victimes parlent d’un véritable harcèlement numérique, qui s’ajoute à la banalisation des « deepfakes » sexuels.
Les réactions politiques et médiatiques ne se sont pas fait attendre. En effet, plusieurs responsables dénoncent une atteinte grave à la dignité et au droit à l’image. En France, le parquet de Paris a même étendu une enquête visant X et Grok, considérant que ces pratiques pourraient relever de délits pénaux.
Les dangers des dérives de l’intelligence artificielle
Cette controverse illustre les risques liés aux outils d’intelligence artificielle capables de générer ou modifier des images. Si Grok ne peut pas produire de nudité explicite, il accepte néanmoins de transformer des photos pour montrer des femmes en lingerie ou en maillot de bain. Le problème est que ces manipulations se font sans le consentement des personnes concernées. Or, cela constitue une violation de leur intimité.
Au-delà du scandale, cette affaire relance le débat sur la régulation des IA génératives. Les experts estiment qu’il est urgent de mettre en place des garde-fous techniques et juridiques pour empêcher de tels abus. Sans encadrement strict, ces outils risquent de devenir des instruments de harcèlement et de désinformation. Pour rappel, il y a déjà eu des cas où Grok a diffusé de fausses informations ou des propos complotistes.



