La semaine dernière, de fausses images sexuellement explicites de Taylor Swift aurait fait utilisant l’intelligence artificielle ont été diffusées sur les réseaux sociaux. Ce n’était que l’exemple le plus récent – et le plus médiatisé – des dangers croissants des deepfakes et du harcèlement numérique.
Swift n'est pas la première femme à qui cela arrive, et elle ne sera pas non plus la dernière. On peut affirmer sans se tromper que presque toutes les autres victimes d'un deepfake pornographique ont moins de ressources qu'une pop star milliardaire avec des millions de fans à travers le monde qui sont très en ligne et s'y connaissent. Mais le fait que cela puisse arriver même à Taylor Swift a attiré une attention renouvelée sur la question et auprès d’un public plus large. Cela donne même un coup de pouce à la législation fédérale pour lutter contre les abus, affirment les défenseurs.
Mardi, les sénateurs américains ont présenté le projet bipartisan Loi de 2024 perturbant les images falsifiées explicites et les modifications non consensuelles (DEFIANCE Act) pour lutter contre et décourager la fausse pornographie non consensuelle. Le projet de loi permettrait aux victimes de « contrefaçon numérique » – « créée grâce à l’utilisation de logiciels, d’apprentissage automatique, d’intelligence artificielle ou de tout autre moyen technologique ou généré par ordinateur pour paraître faussement authentique » – de poursuivre les auteurs au civil, leur donnant ainsi la possibilité de demander justice pour la première fois.
Les victimes de deepfake pornographie non consensuelle n'ont pas eu beaucoup de succès en poursuivant en justice les personnes qui créent, distribuent ou sollicitent de la deepfake pornographie, selon Omny Miranda Martone, qui a travaillé avec les législateurs sur le projet de loi en tant que fondatrice et PDG de l'association. Association pour la prévention des violences sexuelles (SVPA) . La technologie est encore relativement nouvelle et, comme pour d’autres problèmes sociétaux liés à la technologie, les lois doivent rattraper leur retard. Entre-temps, la technologie a progressé pour permettre à quiconque de créer encore plus facilement des deepfakes générés par l’IA.
« Le nombre de violences sexuelles contre des individus ordinaires a grimpé en flèche. »
« Jusqu'à il y a environ deux ans. . . quelqu'un avait besoin d'avoir un ordinateur de grande puissance, il fallait en savoir beaucoup sur la technologie et être capable de gérer un système déroutant et potentiellement même de construire le système lui-même. Et ils avaient besoin de beaucoup de photos de la victime pour que cela paraisse réaliste, explique Martone. Mais la technologie de l'IA a considérablement progressé, et elle en est au point où n'importe qui peut créer de la pornographie non consensuelle et deepfake vraiment réaliste, en utilisant seulement une ou deux photos. Ils n'ont pas besoin de connaître grand-chose en technologie, ils peuvent simplement accéder à une application ou à un site Web sur leur téléphone ou leur ordinateur et y parvenir en quelques secondes.
C'est ahurissant aujourd'hui, sachant qu'en 2017, un sur huit Les utilisateurs des réseaux sociaux ont déclaré avoir été la cible de pornographie non consensuelle et un adulte sur 20 sur les réseaux sociaux en avait été l'auteur, selon le Initiative pour les droits civiques en matière de cybersécurité .
Compte tenu de ces progrès technologiques – et du fait que « toute personne ayant accès à Internet peut facilement en créer » – « le nombre de violences sexuelles contre des individus ordinaires a grimpé en flèche », déclare Martone. Les célébrités étaient la cible la plus courante en raison de la disponibilité de leurs images. Mais désormais, [les auteurs] n'ont besoin que de quelques photos qu'ils peuvent obtenir sur LinkedIn, sur les réseaux sociaux ou sur le site Web de leur entreprise, explique Martone.
Selon Margaret Mitchell, ancienne co-responsable de l'équipe Ethical Artificial Intelligence de Google, cette situation est disproportionnellement préjudiciable pour les femmes. «C'est extrêmement violent, cela a un effet psychologique extrêmement traumatisant sur vous si vous en êtes victime.» C’est également objectivant, ce qui incite les autres à vous voir sous un angle sexuel plutôt que professionnel. Cela signifie que cela peut affecter les opportunités, explique-t-elle à 247CM.
« Les femmes ont déjà du mal à être considérées comme des leaders et à être prises au sérieux sur leur lieu de travail. Lorsque ce type de contenu circule, cela peut affecter la façon dont les femmes peuvent être promues et accéder à davantage de postes de direction », poursuit Mitchell, qui est maintenant scientifique en chef de l'éthique chez Hugging Face, une plateforme ouverte pour les constructeurs d'IA. Cela s'infiltre dans tant de choses d'une manière qui peut parfois être très difficile à retracer, mais qui influence fondamentalement la façon dont vous vous percevez, ce que vous ressentez à l'égard de vous-même et la façon dont les autres vous traitent.
Dans le cas de Swift, les images provenaient de 4chan et un groupe sur Telegram utilisé pour diffuser des images abusives de femmes, a rapporté 404 Médias . Designer, un générateur gratuit d'IA Microsoft, est souvent utilisé pour produire du contenu non consensuel, selon le média. En réponse au rapport, Microsoft comblé une échappatoire qui a permis à Designer de créer du porno de célébrités généré par l'IA.
Mais entre-temps, les images ont rapidement inondé X, anciennement connu sous le nom de Twitter. Dans un exemple inhabituel de modération de contenu à l'époque d'Elon Musk, X a institué un blocage temporaire sur une recherche de Taylor Swift, ce qui a ralenti la propagation, mais n'a pas pu supprimer toutes les images, CBS News signalé . La réponse de X a suivi des légions de Swifties signalant les messages et exigeant que le site les supprime. Cela est également intervenu après que les publications étaient déjà très répandues : l'une d'elles avait déjà enregistré 45 millions de vues, 24 000 retweets et des centaines de milliers de likes et de favoris en 17 heures avant la suspension du compte de cet utilisateur vérifié, selon Le bord . Le lundi 29 janvier, le blocage avait expiré.
Bien que la SVPA travaille avec le Congrès depuis un certain temps – Martone dit avoir envoyé une lettre ouverte l'année dernière les exhortant à s'attaquer au problème – il semble à Martone qu '«ils n'ont pris aucune mesure jusqu'à ce que les nouvelles de Taylor Swift deviennent vraiment importantes».
Même si vous avez l'impression que personne ne se soucie de vos images, l'IA s'en soucie.
Pourtant, la plupart des victimes de pornographie non consensuelle ne sont pas très médiatisées. La plupart sont des femmes et beaucoup ont des identités marginalisées, qu'il s'agisse de leur race, de leur origine ethnique et/ou de leur orientation sexuelle. SVPA, par exemple, a travaillé avec une femme qui était étudiante et qui s'entraînait au gymnase lorsqu'elle a été frappée par un homme, qu'elle a refusé. Quelques semaines plus tard, un autre membre du gymnase a pris la femme à part pour lui faire savoir que l'homme qu'elle avait rejeté avait fait d'elle une fausse pornographie – et l'avait montré à d'autres membres du gymnase et l'avait publié sur Instagram, où elle a pu le faire retirer. Martone dit qu'ils ont récemment fait réaliser du porno deepfake à partir d'eux, compte tenu de leur travail sur la question.
Sans législation, il est difficile d'exercer un recours. Étant donné que le contenu problématique est reconnu comme faux, il n'est pas considéré comme de la diffamation, ajoute Martone.
Quoi qu’il en soit, en tant que société, nous devrions tous œuvrer pour empêcher la création et le partage de contenus non consensuels, affirment les experts. L’idée que le problème s’aggrave et qu’il est impossible de remettre le génie dans la bouteille ne devrait pas susciter un sentiment d’inévitabilité ou d’engourdissement.
Pour ceux qui pensent qu’ils ne se retrouveraient jamais dans ce type de situation, Mitchell souligne également que la technologie a permis que cela devienne si banal que n’importe qui pourrait être concerné.
Comme l'explique Mitchell : « Les gens doivent être conscients que tout contenu qu'ils mettent en ligne pourrait potentiellement être récupéré par des particuliers ou par des entreprises afin d'être utilisé dans le cadre de la formation en IA. Il se peut donc qu’une photo de famille sur Facebook ne soit pas quelque chose qui intéressera le grand public. Mais là n'est pas la question. La question est : ce contenu sera-t-il repris par une grande entreprise technologique de manière à contribuer à l’objectivation des femmes ?
En fin de compte, c’est la technologie dont vous devez être conscient et dont vous devez vous méfier. Même si vous avez l'impression que personne ne se soucie de vos images, l'IA s'en soucie, déclare Mitchell. Les systèmes d'IA peuvent toujours les balayer, ils peuvent toujours être utilisés pour vous déformer, et ils peuvent toujours être utilisés dans n'importe quelle sorte de situation de vengeance, et n'importe quelle sorte de situation où vous avez quelqu'un qui va être un acteur malveillant comme celui-là peut vous nuire personnellement.