« Il suffit d'être humain pour devenir victime », déclare l'avocate Carrie Goldberg, en abordant les dangers du porno deepfake à l'ère de l'IA. Le revenge porn, ou partage non consensuel d'images sexuelles, existe depuis les débuts d'Internet. Cependant, avec l'essor des outils d'IA, n'importe qui peut devenir la cible de ce harcèlement, même sans avoir pris ou partagé de photo nue. La technologie de l'IA peut désormais placer le visage d'une personne sur un corps nu ou modifier des photos pour donner l'apparence d'une personne dénudée. L'année dernière, les victimes de porno non consensuel généré par l'IA comprenaient des figures bien connues comme Taylor Swift et la députée Alexandria Ocasio-Cortez, ainsi que des élèves de lycée. Quand quelqu'un découvre que lui-même ou son enfant est sujet de porno deepfake, l'expérience est terrifiante et accablante, dit Goldberg, qui dirige C. A. Goldberg Law, un cabinet de New York représentant les victimes de crimes sexuels et de harcèlement en ligne. « Cela est particulièrement vrai pour les jeunes qui peuvent avoir du mal à s'en sortir et trouver Internet intimidant et incompréhensible », a-t-elle déclaré. Heureusement, il existe des mesures que les individus visés par ce harcèlement peuvent prendre pour se protéger, et des sources d'assistance, a partagé Goldberg dans une interview sur le nouveau podcast technologique de CNN, Terms of Service avec Clare Duffy. Terms of Service vise à clarifier les technologies émergentes que les gens rencontrent quotidiennement. (Écoutez la conversation complète avec Goldberg ici. ) Goldberg a conseillé que la première étape lorsqu'on est ciblé par des images sexuelles générées par l'IA, même si cela semble contre-intuitif, est de prendre des captures d'écran. « L'instinct est de l'effacer immédiatement d'Internet », a déclaré Goldberg. « Mais conserver des preuves est crucial si vous voulez avoir l'option de le signaler pénalement.
» Ensuite, les victimes peuvent utiliser des formulaires fournis par des plateformes comme Google, Meta et Snapchat pour demander la suppression de ces images. Des organisations à but non lucratif comme StopNCII. org et Take It Down peuvent également aider à supprimer des images de plusieurs plateformes simultanément, bien que tous les sites ne coopèrent pas. En août, un groupe bipartite de sénateurs a rédigé une lettre ouverte exhortant près d'une douzaine d'entreprises technologiques, dont X et Discord, à participer à ces programmes. Traiter des images explicites non consensuelles et des deepfakes a obtenu un accord bipartite inhabituel. Les adolescents et parents touchés par le porno généré par l'IA ont témoigné lors d'une audition sur Capitol Hill, où le sénateur républicain Ted Cruz a présenté un projet de loi, soutenu par la sénatrice démocrate Amy Klobuchar et d'autres, pour criminaliser de telles publications et obliger les plateformes sociales à supprimer le contenu signalé. Actuellement, les victimes doivent naviguer dans des lois étatiques variées. Certains États n'ont pas de lois contre la création ou le partage de deepfakes explicites d'adultes, bien que les images générées par l'IA d'enfants relèvent généralement des lois sur les abus sexuels sur enfants. « Mon conseil pour les éventuels délinquants est simplement de ne pas être moralement répréhensible en exploitant l'image de quelqu'un pour l'humiliation », a déclaré Goldberg. « Il y a peu de choses que les victimes peuvent faire pour éviter cela. Dans notre société numérique, une sécurité complète est inatteignable, mais il nous appartient à tous de traiter les autres avec décence. »
La menace croissante des deepfakes pornographiques liés à l'IA : protéger les victimes à l'ère numérique
Chaque semaine, nous mettons en lumière une application basée sur l'IA qui résout de véritables problèmes pour les entreprises B2B et Cloud.
L'intelligence artificielle (IA) influence de plus en plus les stratégies de référencement local (SEO).
IND Technology, une société australienne spécialisée dans la surveillance des infrastructures pour les services publics, a obtenu 33 millions de dollars en financement de croissance afin de renforcer ses efforts basés sur l'intelligence artificielle pour prévenir les incendies de forêt et les coupures de courant.
Au cours des dernières semaines, un nombre croissant d'éditeurs et de marques ont fait face à une opposition significative alors qu'ils expérimentent avec l'intelligence artificielle (IA) dans leurs processus de production de contenu.
Google Labs, en partenariat avec Google DeepMind, a lancé Pomelli, une expérience basée sur l’intelligence artificielle conçue pour aider les petites et moyennes entreprises à développer des campagnes marketing cohérentes avec leur marque.
Dans l’environnement numérique en rapide expansion d’aujourd’hui, les entreprises de médias sociaux adoptent de plus en plus des technologies avancées pour protéger leurs communautés en ligne.
Une version de cette histoire est parue dans la newsletter Nightcap de CNN Business.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today