Au moins 1,2 million d'enfants ont été déshabillés et sexualisés dans des « deepfakes »
De nos jours, n’importe qui peut déshabiller une personne sans son consentement. Les applications d'intelligence artificielle (IA) ont facilité le processus, de sorte qu'en quelques clics, vous pouvez obtenir des images sexualisées ou même du porno hyper réaliste avec juste une photo. Ce défi – qui nuit particulièrement aux femmes – est également déjà une préoccupation pour les défenseurs des droits des enfants. Un rapport de l'Unicef publié ce mercredi montre comment 1 mineur sur 25 dans 11 pays du monde (dont le Mexique, la Colombie, la République dominicaine et le Brésil) a été touché par ce type d'abus sexuels. Il y a 1,2 million de garçons et de filles.
« Même si les images sont fausses, les dégâts sont réels », explique María José Ravalli, responsable régionale du plaidoyer et de la communication de l'UNICEF pour l'Amérique latine et les Caraïbes. Et les enfants le savent : les garçons et les filles eux-mêmes sont très conscients de ce danger. Selon cette recherche également réalisée par Innocenti, Ecpat International et Interpol, dans certains des pays étudiés, jusqu'à deux tiers des personnes interrogées ont déclaré craindre que l'IA puisse être utilisée pour falsifier des images ou des vidéos sexuelles d'elles. Cependant, cette perception de l'insécurité varie d'un pays à l'autre.
Pour cette raison, l’Unicef insiste sur le renforcement des mesures de sensibilisation et de prévention et de protection au niveau régional. « Ce rapport parle de 1,2 million de garçons et de filles touchés, mais je suis sûre que si on leur demandait s'ils connaissent d'autres enfants touchés, les chiffres se multiplieraient », déplore-t-elle. L'étude a également été réalisée auprès de mineurs du Maroc, de Macédoine du Nord, d'Arménie, du Monténégro, du Pakistan, de Serbie et de Tunisie. Environ 1 000 internautes garçons et filles âgés de 12 à 17 ans et 1 000 pères, mères ou tuteurs ont été interrogés pour chacun des pays. « Ce n'est pas une question lointaine. Les chiffres sont alarmants. »
Ravalli reconnaît que le combat se déroule contre un monstre à plusieurs têtes. C'est pour cette raison qu'on parle d'outils articulés et multisectoriels, principalement au nombre de trois. Alphabétisation numérique des mineurs, réglementation solide des plateformes de médias sociaux (avec des systèmes de signalement simples et une surveillance constante et efficace) et législation solide qui inclut les images générées avec l'IA dans la classification des abus sexuels sur mineurs ou de la pédophilie.
Et les experts s'accordent sur le fait que la réalité ou non des images ne diminue en rien la gravité du crime : la conséquence des images sexualisées de mineurs transforme ces enfants directement en victimes. Le matériel généré par l’IA montrant des abus sexuels sur des garçons et des filles normalise l’exploitation sexuelle des enfants et stimule la demande de contenus abusifs. Cette situation pose également des obstacles importants aux forces de l’ordre lors de l’identification et de la protection des mineurs.
Mais le problème dépasse la génération d’images sexualisées. Le défi le plus difficile à contrôler survient lorsque ces outils d’IA sont intégrés directement dans les plateformes de médias sociaux, où ils peuvent se propager rapidement. « C'est une responsabilité collective, y compris celle des organisations multilatérales. Les garçons et les filles ne peuvent pas attendre que la législation soit mise à jour », dit Ravalli.
