3:21
Français
Podcasts
2024
Obtenez un accès à la bibliothèque pour le consulter en ligne En savoir plus
Découvre YouScribe en t'inscrivant gratuitement
Découvre YouScribe en t'inscrivant gratuitement
3:21
Français
Podcasts
2024
Obtenez un accès à la bibliothèque pour le consulter en ligne En savoir plus
Publié par
Date de parution
22 octobre 2024
Nombre de lectures
0
Langue
Français
Poids de l'ouvrage
3 Mo
Le nombre d'images et de vidéos d'agressions sexuelles d'enfants générées par intelligence artificielle est en progression « glaçante », s’inquiète une organisation britannique chargée de détecter et retirer ces contenus. Ces photos ou vidéos montrant des mineurs agressés et maltraités sont si réalistes qu'il devient presque impossible de les distinguer des véritables scènes d’enfants abusés, alerte dans son communiqué l'Internet Watch Foundation.
Au Royaume-Uni comme en Europe et dans la plupart des pays occidentaux, les textes législatifs interdisant la génération d’images à caractère sexuel réalisées à l’aide d’un programme d'intelligence artificielle (IA) génératif et leur partage en ligne s’accumulent. Mais rien n’y fait. Jusqu’à présent, en vertu de la loi sur la sécurité en ligne de janvier 2024, la création, la détention à titre privé, le partage de ces clichés et clips vidéo ultraréalistes était déjà illégal au Royaume-Uni.
Par exemple, si un internaute les partage après l'avoir créé, il est condamné à une peine de prison systématique. Des lois qui n’ont strictement rien réglé, accuse aujourd’hui l’Internet watch foundation, l’une des principales associations de lutte contre la production et la diffusion d’images pédopornographiques en Europe.
La Fondation alerte sur la progression « glaçante » des clips vidéo pornographiques mettant en scène des enfants, tant par leur nombre que par le réalisme des images générées par IA. L’association britannique qui avait reçu 70 rapports concernant la diffusion de ces hyper-trucages sur l’année écoulée entre avril 2023 et mars 2024, en a déjà reçu 74 en l’espace de six mois, entre avril et fin septembre de cette année.
La quasi-totalité de ces images se trouvait sur des sites ouverts, facilement accessibles au grand public, principalement hébergés en Russie, aux États-Unis et au Japon. Plus des trois quarts d’entre elles ont été directement signalées à l’association par des internautes, après avoir été vues sur des « forums ou des galeries d’images IA », selon un analyste de l’organisation, resté anonyme par sécurité.
Toujours selon cet analyste, l’augmentation de ces signalements « donne l’impression que nous sommes arrivés à un point critique » en insistant sur le risque que les ONG et la police soient submergées par des centaines de nouvelles images. Et sans pouvoir déterminer si un véritable enfant a besoin d’aide quelque part.
Pire, pour atteindre le niveau de sophistication de ces clips nauséabonds, les logiciels IA ont dû apprendre à partir d’images et de vidéos réelles d’agressions sexuelles sur des mineurs. Et c’est peut-être la partie la plus sombre du problème. Comment les grandes firmes de l’IA ont-elles pu donner un accès sans contrôle à leurs programmes d’entrainement à des groupes de cybercriminels qui se sont lancés dans une production quasi industrielle des logiciels d’hyper-trucages pédopornographiques ?
Pour toutes ces raisons, l’Internet watch foundation demande instamment aux députés britanniques de réviser la loi sur la protection des mineurs. Le sujet est aussi à l’ordre du jour de la Commission européenne qui a lancé, ce 15 octobre 2024, un appel d’offres doté de 4 millions d’euros et ouvert jusqu’au 18 novembre prochain pour élaborer dans un premier temps une « solution à court terme » de vérification de l’âge « préservant la vie privée » des internautes de l’UE.
À lire aussiLes diplomates de l'ONU piégés par des deepfakes... pour la bonne cause
Publié par
Date de parution
22 octobre 2024
Nombre de lectures
0
Langue
Français
Poids de l'ouvrage
3 Mo