Les deepfakes de Taylor Swift sont devenus viraux. Comment cela continue-t-il à se produire ?
![](https://thegames15.com/wp-content/uploads/2024/02/deepfakes-of-taylor-swift-have-gone-viral-how-does-this-keep_5rr6.1200-780x470.jpg)
Être une femme en ligne est effrayant. Dans le monde numérique, comme dans le monde réel, le harcèlement et les abus touchent quotidiennement les femmes et les personnes de genre marginalisé.
Ce qui est arrivé à Taylor Swift cette semaine est un excellent exemple – et terrifiant. Images pornographiques générées par l’IA de Swift est devenu viral sur X (anciennement Twitter), l’un de ces messages ayant recueilli plus de 45 millions de vues. Des fans indignés sont rapidement intervenus, inondant la plateforme de posts positifs et d’images du chanteur. attaché aux termes de recherche comme “Taylor Swift AI” et “Taylor Swift deepfake”. La base de fans dédiée de Swift a également reçu le hashtag #ProtectTaylorSwift, avec des milliers de messages condamnant les images non consensuelles.
L’incident n’est certainement pas isolé. Swift, l’une des personnalités les plus reconnaissables de la planète, est la dernière en date à avoir utilisé des deepfakes contre elle. Ceci est arrivé à Les stars de la K-pop, Créateurs de TikTok, journalisteset filles du lycée.
Qu’est-ce que le deepfake porno ?
Faux porno Il s’agit d’images ou de vidéos créées artificiellement et générées par un type spécifique d’apprentissage automatique. Ces visuels synthétiques représentent des portraits de personnes superposés à des actes sexuels sans leur consentement. Le fait de le partager est une forme d’abus sexuel basé sur l’image et a été criminalisé dans certains pays. Un peu comme porno de vengeancela pornographie deepfake a causé du tort à ceux qu’elle représente, que ce soit psychologiquement, personnellement ou professionnellement.
Une étude de 2023 de Héros de la sécurité domestique, une société de recherche spécialisée dans le vol d’identité et les dommages numériques, a découvert que la pornographie deepfake représente 98 % de toutes les vidéos deepfake en ligne. De plus, 99 % des cibles des deepfakes sont des femmes.
Où en est la loi sur le porno deepfake ?
En ce qui concerne le partage non consensuel d’images explicites, certains pays du monde ont ou sont en train de mettre en œuvre des lois pour protéger les survivants.
En Angleterre et au Pays de Galles, le partage de deepfake porn est criminalisé depuis juin 2023, par le gouvernement britannique. annoncer une répression sur “les agresseurs, les prédateurs et les ex-partenaires amers qui partagent des images intimes en ligne sans le consentement des personnes représentées”.
Aux États-Unis, 48 États et le District de Columbia disposent actuellement lois anti-vengeance sur le porno. Certains États se sont efforcés de mettre à jour leur langage pour inclure la pornographie deepfake sous ce parapluie, notamment Illinois, Virginie, New Yorket Californie. Cependant, les réglementations varient selon les États et, comme certains l’ont soulignécertaines lois n’incluent pas la question pressante du rôle de la technologie dans la création et la prolifération de telles images et vidéos.
Cependant, de nombreux gouvernements ne parviennent pas à résoudre le problème. “La plupart des gouvernements n’agissent pas. La plupart n’ont pas de lois, ou leurs lois sont pleines de lacunes”, selon #MonImageMonChoix, une campagne dédiée à amplifier la voix de ceux qui ont été victimes d’abus sexuels basés sur l’image. “La plupart des pays ne disposent pas d’un cadre définissant qui est responsable du contrôle des espaces en ligne.”
Comment les Big Tech ont-elles abordé ce problème ?
X, où les photos de Swift ont été largement diffusées, interdit explicitement partager « des médias synthétiques, manipulés ou hors contexte ». Cela inclut les contenus qui visent délibérément à « tromper les gens » ou ceux qui prétendent faussement décrire la réalité. L’entreprise affirme avoir « une politique de tolérance zéro à l’égard de ce type de contenu », selon un article publié sur son compte officiel de sécurité.
D’autres plateformes, comme Redditont également des politiques empêchant le partage de médias intimes ou sexuellement explicites sans le consentement d’une personne.
Les plateformes de médias sociaux et les Big Tech ont été mises à rude épreuve lorsqu’il s’agit de détecter et de prévenir les deepfakes, malgré les politiques. En 2021, Meta a implémenté un nouvel outil pour ce faire, en partenariat avec la plateforme UK Revenge Porn Helpline StopNCII.org. Plus récemment, la société mère de Facebook et Instagram a annoncé que toute image modifiée numériquement concernant des questions sociales, électorales et politiques devait être étiquetée – une politique destinée à protéger les élections à venir vers lesquelles se préparent certaines des plus grandes démocraties du monde.
De nombreuses plateformes ont du mal à contenir un tel contenu. Les images de Swift, notamment, ont été créées et diffusées sur une discussion de groupe Telegram, comme l’a découvert 404Médias. Le télégramme a n’a pas réussi à empêcher ce type de contenu dans le passé. D’autres l’ont fait aussi : ce mois-ci seulement, NBC News trouvé que le porno deepfake non consensuel présentant l’image de célébrités féminines apparaît en tête des moteurs de recherche comme Google et Bing de Microsoft.
Voici la vraie question : comment cela continue-t-il à se produire ? La réalité alarmante est que les images générées par l’IA sont de plus en plus omniprésentes et présentent de nouveaux dangers pour ceux qu’elles représentent. Ce problème est exacerbé par un fondement juridique obscur, les plateformes de médias sociaux qui n’ont pas réussi à promouvoir des garanties efficaces et la montée continue de l’intelligence artificielle. Organisation internationale de défense des droits des femmes Equality Now a détaillé ces facteurs dans un rapport de janvier 2024, appelant à « des réponses urgentes et globales en matière d’innovation technologique, de réforme juridique et de sensibilisation sociétale » pour lutter contre la montée indéniable du deepfake porno.
Les circonstances entourant le cas de Swift mettent en évidence le fait que cela peut arriver à presque tout le monde – et avant que ce type de crise numérique ne s’aggrave, il est temps de changer.
Si vous avez été victime d’abus sexuels, si vous résidez aux États-Unis, appelez la ligne d’assistance gratuite et confidentielle National Sexual Assault au 1-800-656-HOPE (4673), ou accédez à l’aide en ligne 24h/24 et 7j/7 en visitant en ligne.rainn.org. Si des images intimes ont été partagées sans votre consentement, appelez la hotline 24h/24 et 7j/7 de la Cyber Civil Rights Initiative au 844-878-2274 pour une assistance gratuite et confidentielle. Le site Web du CCRI comprend également information utile ainsi qu’une liste de ressources internationales.
Si vous résidez au Royaume-Uni et avez été victime d’abus d’image intime (c’est-à-dire de vengeance pornographique), vous pouvez contacter le Ligne d’assistance pour le porno vengeance au 0345 6000 459. Si vous avez été victime de violences sexuelles et que vous résidez au Royaume-Uni, appelez la ligne d’assistance Rape Crisis. 0808 802 9999.