Nudify, des applis qui déshabille les femmes avec l’IA ?

Choses à Savoir TECH - A podcast by Choses à Savoir

Categories:

Connaissez-vous le concept des applications dites Nudify ? Si vous parlez un peu anglais, alors vous avez sans doute déjà compris l’esprit de ces outils qui visent tout simplement à déshabiller des personnes grâce à l’IA. Concrètement, il suffit d'uploader la photo d'une personne pour que l'algorithme génère une version où celle-ci apparaît dénudée, et ce, sans son accord. Selon la société d'analyse Graphika, pas moins de 24 millions de personnes ont visité des sites proposant ce type de service rien qu'en septembre 2023.Pour faire simple, le Nudify utilise deux technologies principales pour générer des images d’une personne nue à partir de photos d'elle habillée. La première est bien entendue l'IA générative, avec des algorithmes qui analysent des millions d'images de corps nus pour apprendre à identifier les formes et les textures réalistes… La seconde, c’est le deepfake, quand l'IA superpose des corps nus anonymes sur la photo habillée de la cible, en tenant compte de la carnation, de la posture et d'autres détails pour un résultat crédible. Le tout peut-être généré en seulement quelques minutes, permettant à ce genre de contenu de se répandre à vitesse grand V sur internet avec tous les dangers que cela peut comporter.Si certaines plateformes comme TikTok, Facebook, ou Instagram commencent à bloquer les mots-clés associés à ces applications, leurs efforts restent largement insuffisants face à l'ampleur du phénomène. Le nombre de liens renvoyant vers des services ou des publications liées au Nudify a bondi de plus de 2 400 % en 2024 selon Graphika. Pire, certaines applis parviennent même à se faire de la publicité sur YouTube en contournant les règles des diffuseurs. Si Google affirme « examiner » et « supprimer » les publicités concernant les deepfakes en tout genre, la firme ne fait bien souvent que les déclasser. Beaucoup d'autres plateformes n'ont pas encore pris de mesures concrètes. Mais au-delà des interrogations sur la responsabilité des plateformes, c'est surtout la notion même de consentement qui est bafouée par ces applis, représentant des personnes dénudées à leur insu et sans leur accord. Aux États-Unis, aucune loi fédérale n'interdit formellement la création de ces deepfakes pornographiques. En France, la CNIL joue son rôle en punissant d'une amende de 12 000 euros la diffusion publique d'images « déshabillées ». Au niveau européen, le RGPD est quant à lui intraitable sur le consentement, mais malgré tout, les victimes restent bien démunies face à ces dérives. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Visit the podcast's native language site