EL PAÍS

Les utilisateurs de Grok ont ​​généré trois millions d'images sexualisées sur X en 11 jours, dont plus de 23 000 de mineurs

Les chiffres permettant de comprendre ce qui s’est passé sont presque invraisemblables. Le Centre de lutte contre la haine numérique (CCCDH) a publié ce jeudi, en collaboration avec , une étude sur les images générées par Grok, l'IA d'Elon Musk, entre le 29 décembre et le 8 janvier. Résultat : les utilisateurs qui ont utilisé cet outil ont créé une image sexualisée toutes les 41 secondes pendant onze jours. Au total, il y aurait trois millions d'images à contenu sexuel explicite, dont au moins 23 000 montrant des mineurs. C'est 190 par minute.

Le problème a commencé le 31 décembre lorsque Musk a demandé à Grok de publier une image modifiée de lui en bikini sur son réseau X, anciennement Twitter. Cette image a allumé la mèche. Les utilisateurs de X ont tout de suite compris qu’il existait un outil permettant de dépouiller numériquement n’importe qui. Ce jour-là, Grok a généré près de 600 000 images. Pour préparer le rapport publié jeudi, les experts ont travaillé sur un échantillon de 20 000 images sur les 4,6 millions publiées entre le 29 décembre et le 8 janvier.

C’est ainsi qu’a commencé une course effrénée pour dépouiller les vraies femmes et les transformer en images sexuelles sans leur consentement. Pas seulement ou . L'analyse a identifié des personnalités publiques telles que la vice-Première ministre suédoise Ebba Busch, Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande et Kamala Harris. Mais cela est également arrivé aux utilisateurs ordinaires de la plateforme. Dans l’une des images analysées par les chercheurs, une adolescente avait mis en ligne un selfie d’elle à l’école. Grok l'a modifié pour la montrer en bikini.

Pendant des jours, Musk a permis à ses utilisateurs de sexualiser des femmes et des mineurs sans leur consentement, malgré les plaintes des utilisateurs et des plateformes de droits numériques. Au cours de ces 11 jours, la plateforme d'Elon Musk est devenue ce que les experts en harcèlement en ligne considèrent comme la plus grande accumulation de contenu sexuel généré par l'IA jamais documentée. Pour donner une perspective : M. Deepfakes, l'un des plus grands forums dédiés à la création de contenu sexuel à partir de personnes réelles, a hébergé un peu plus de 43 000 vidéos à son apogée. Grok a généré soixante-dix fois ce montant en seulement 11 jours.

Ursula von der Leyen, présidente de la Commission, a été horrifiée qu'une plateforme permette aux utilisateurs de déshabiller numériquement des femmes et des enfants. En Espagne, le ministère de la Jeunesse et de l'Enfance a exprimé son inquiétude et le parquet a ouvert une enquête. L’Indonésie et la Malaisie ont carrément bloqué Grok.

Le 8 janvier, X a limité Grok aux utilisateurs payants. Et quelques jours plus tard, elle a ajouté des restrictions techniques plus sévères et empêché l’utilisation de ces images. Mais ce temps était plus que suffisant. Les images ont explosé sur Internet comme un virus.

Les chiffres les plus choquants sont probablement ceux qui concernent les mineurs. Le CCCDH a spécifiquement identifié 101 images de mineurs sexualisés dans son échantillon manuel de 20 000 images. Extrapolé au total de 4,6 millions, cela représente 23 338 images de mineurs. La vitesse de génération était d’une image d’un mineur sexualisé toutes les 41 secondes.

De plus, 29 % des images de mineurs sexualisés étaient encore accessibles au public sur X le 15 janvier, près d'une semaine après la mise en place des premières restrictions. Il cite également des exemples, comme une image de six mineurs en micro bikini et des images d'enfants acteurs sexualisés. Ils sont tous encore accessibles sous X.

A lire également