Savez-vous ce qu’est deepfake? C’est une technique apparue en 2017 qui permet le détournement du contenu d’une image ou d’une vidéo, très souvent dans un but malveillant.
Qu’est-ce que deepfake?
Le terme deepfake est un mot croisé formé à partir de l’apprentissage profond et faux. Il est entendu qu’il se réfère à un faux contenu profondément crédible.
Ce phénomène proviendrait d’une technique inventée en 2014, à Montréal, par le chercheur Ian Goodfellow. Selon la technologie GAN (Generative Adversarial Networks), deux algorithmes se confrontent : l’un vise à créer des contrefaçons aussi fiables que possible (appelées échantillons) tandis que l’autre tente de détecter le réel à partir du faux. Les deux algorithmes fonctionnent ensemble et à mesure que les échantillons disponibles augmentent, la précision augmente.
Alors que la création de deepfakes audio nécessite des ressources matérielles considérables et est donc principalement utilisée par les professionnels, l’intelligence artificielle (IA) permet désormais au grand public de créer facilement des deepfakes sans avoir besoin de connaissances techniques particulières. Grâce à des applications comme FakeApp, dont l’algorithme analyse les mouvements du visage, nous pouvons créer des images ou des vidéos qui nous font paraître plus jeunes ou plus âgés. Les évolutions technologiques rendent les algorithmes plus réalistes que jamais et permettent de créer de plus en plus de faux contenus compromettants… et problématique.
La nouvelle menace
Avec toutes les fausses nouvelles qui balayent les réseaux sociaux et même dans les médias traditionnels, la présence croissante de deepfakes apporte des dangers encore plus grands: manipulation, désinformation, humiliation, diffamation… et les menaces à la sécurité nationale! En avril 2018, Jordan Peele, réalisateur du film Get Out, et Jonah Peretti, PDG de Buzzfeed, ont démontré les dangers des deepfakes avec leur vidéo de Barack Obama donnant un faux discours.
Surtout connus sur les médias sociaux comme un moyen de nuire à des personnalités internationales en produisant de fausses images et vidéos les montrant dans des situations embarrassantes, pensons à Daisy Ridley, Gal Gadot, Katy Perry et Taylor Swift qui ont été victimes de deepfakes pornographiques ou Mauricio Macri et Angela Merkel qui ont vu leurs visages remplacés par ceux d’Adolf Hitler et de Donald Trump respectivement, deepfakes peut être trouvé sur des sites pornographiques, évidemment utilisé à l’insu des gens, et encore plus inquiétant est un certain nombre d’entre eux utilisent des images de mineurs.
Deepfake Porno
Le 4 décembre 2020, le New York Times a publié The Children of Pornhub, un article qui a fait l’effet d’une bombe du journaliste Nicholas Kristof qui décrivait comment la plate-forme de contenu pornographique monétisait le viol de mineurs, le porno de vengeance et les caméras cachées dans les vestiaires des femmes, pour n’en nommer que quelques-uns. Ce que toutes ces vidéos ont en commun, c’est l’absence de consentement. Bien que ces vidéos aient montré de vraies personnes, le porno deepfake préoccupe de plus en plus les experts en raison de l’accessibilité et de la facilité d’utilisation de la technologie pour créer ces fausses vidéos. Cette menace est tout sauf bénigne car elle facilite principalement la violence et le harcèlement à l’égard des femmes et des filles.
Les Geographic Deepfakes
En avril 2021, le site américain de technologie, d’information et de médias The Verge a mis en garde les gouvernements contre l’hypertrategie géographique, affirmant que les adversaires géopolitiques pourraient utiliser de fausses images satellites pour tromper leurs ennemis. Un analyste de la National Geospatial-Intelligence Agency a envisagé un scénario dans lequel un logiciel de planification militaire serait trompé par de fausses données montrant un pont au mauvais endroit. The Verge a également fait valoir que deepfake pourrait aller jusqu’à discréditer les témoignages basés sur de vraies images satellites. Citant les camps de concentration ouïghours en Chine, il a expliqué que le gouvernement chinois pourrait essayer de se protéger en affirmant que les images satellites de ces camps sont en fait truquées grâce à deepfake; un réel danger pour la sécurité nationale.
Comment se protéger
En septembre 2019, en réponse à l’ampleur de la situation, Google a publié une base de données – constamment mise à jour – de plus de 3 000 vidéos deepfake pour permettre aux ingénieurs et aux chercheurs de créer des outils de détection automatisés basés sur l’IA. Pour sa part, le laboratoire FAIR de Facebook tente de développer une « dépersonnalisation », une IA qui appliquerait un filtre aux vidéos pour éviter qu’elles ne soient modifiées par un logiciel de reconnaissance faciale. Accompagné de Microsoft et associé à des institutions renommées (MIT, Université d’Oxford, Université du Maryland, UC Berkeley), le géant des réseaux sociaux a lancé le Deepfake Detection Challenge, un concours visant à créer des logiciels capables de découvrir des vidéos truquées. Pour leur part, des chercheurs de l’Université de Washington proposent de démystifier la fiabilité absolue des images satellites et de sensibiliser le public à l’influence potentielle du deepfake géographique pour limiter les impacts de cette technologie. Enfin, selon Solange Ghernaouti, spécialiste de la cybersécurité et de la cyberdéfense, la solution serait de « tatouer numériquement » des images et des vidéos numériques pour valider leur contenu. Des logiciels tels que InVid et Amnesty Youtube Dataviewer permettent aux journalistes de déterminer si une vidéo est truquée ou manipulée.
En conclusion, il appartient également aux différents législateurs de mettre en place des lois interdisant les contenus qui ne mentionnent pas l’utilisation de superpositions vidéo et audio, comme le fait la Chine depuis le 1er janvier 2020.
Ne croyez pas tout ce que vous voyez et lisez sur Internet.
Photo par : Joshua Rawson-Harris