Face aux nombreuses polémiques concernant les “vidéos altérées par une intelligence artificielle d’une manière qui induirait probablement quelqu’un en erreur”, Facebook a annoncé que ces deepfakes allaient désormais être interdites sur la plateforme. À l’approche des élections américaines, les attentes sont grandes concernant l’action du géant des réseaux sociaux.
C’est dans un article de blog que Monika Bickert, Vice President, Global Policy Management, s’est exprimée sur le sujet pour présenter la stratégie de Facebook face à celles et ceux qui “se livrent à des manipulations médiatiques afin d’induire en erreur.
Les manipulations peuvent se faire par le biais de technologies simples comme Photoshop ou par des outils sophistiqués qui utilisent l’intelligence artificielle ou des techniques de deep learning pour créer des vidéos qui déforment la réalité – généralement appelées deepfakes”.
Facebook souhaite donc s’attaquer à ces “deepfakes et à tous les types de médias manipulés”. Le réseau social explique que leur “approche comporte plusieurs volets, allant de l’enquête sur le contenu généré par l’IA et les comportements trompeurs comme les faux comptes, au partenariat avec le milieu universitaire, gouvernemental et industriel pour exposer les personnes qui se cachent derrière ces efforts”.
Ces partenariats ont été réalisés en parallèle de discussions avec des experts internationaux dans les domaines techniques, politiques, médiatiques, juridiques, civiques et universitaires afin de faire évoluer les politiques d’utilisation et d’améliorer les capacités de détection des deepfakes.
Facebook entend réaliser de meilleures vérifications des contenus et pourrait y compris supprimer certaines vidéos ou images manipulées. Plusieurs critères sont mis en avant pour un retrait des contenus deepfakes :
- Il a été édité ou synthétisé – au-delà des ajustements pour la clarté ou la qualité – d’une manière qui n’est pas apparente pour une personne moyenne et qui pourrait probablement induire en erreur en faisant croire qu’un sujet de la vidéo a dit des mots qu’il n’a pas vraiment prononcés.
- C’est le produit de l’intelligence artificielle ou du machine learning qui fusionne, remplace ou superpose le contenu d’une vidéo, le faisant paraître authentique.
Cette politique ne s’applique pas au contenu de type parodie ou une satire, ni aux vidéos montées uniquement pour omettre ou modifier l’ordre des mots.
“Conformément à nos politiques existantes, les fichiers audio, les photos ou les vidéos, qu’ils soient truqués ou non, seront retirés de Facebook s’ils enfreignent l’une de nos autres normes communautaires, notamment celles qui régissent la nudité, la violence graphique, la suppression des électeurs et les discours haineux”.
Le contenu restera vérifié par des vérificateurs indépendants qui étudieront un contenu partagé et/ou dénoncé par des utilisateurs. En cas de confirmation que le contenu en question est faux ou partiellement faux, Facebook réduit la diffusion du fil d’actualité et l’apparition des publicités pour cette page. Des messages d’avertissement seront également adressés aux personnes voyant la page, souhaitant la partager ou l’ayant déjà fait.
“Cette approche est essentielle à notre stratégie et nous l’avons entendue lors de nos conversations avec des experts. Si nous supprimions simplement toutes les vidéos manipulées signalées comme fausses par les vérificateurs de faits, les vidéos seraient toujours disponibles ailleurs sur Internet ou dans l’écosystème des médias sociaux. En les laissant et en les étiquetant comme fausses, nous fournissons aux gens des renseignements importants et un contexte”.
Dans sa stratégie de lutte contre les deepfakes, Facebook annonce avoir identifié et supprimé en décembre 2019 un “un réseau utilisant des photos générées par l’IA pour dissimuler leurs faux comptes. Nos équipes continuent à rechercher de manière proactive les faux comptes et autres comportements inauthentiques coordonnés”.
Concernant l’identification des contenus manipulés, dont les deepfakes sont les plus difficiles à détecter, le géant des réseaux sociaux a mis de nouveau en avant son Deep Fake Detection Challenge, lancé en septembre dernier. Il a incité des personnes du monde entier à produire davantage d’outils de recherche et d’open source pour détecter les deepfakes. Ce projet, soutenu par des subventions de 10 millions de dollars, comprend une coalition intersectorielle d’organisations dont le Partnership on AI, Cornell Tech, l’Université de Californie Berkeley, le MIT, WITNESS, Microsoft, la BBC et AWS, parmi plusieurs autres de la société civile et des communautés technologiques, médiatiques et universitaires.
Parallèlement, Facebook a annoncé un partenariat avec Reuters, le plus grand fournisseur de nouvelles multimédia au monde. L’objectif est de pouvoir aider les salles de rédaction du monde entier à identifier les deepfakes et les manipulation grâce à un cours de formation en ligne gratuit. Les organismes de presse s’appuient de plus en plus sur des tiers pour les gros volumes d’images et de vidéos, et l’identification des visuels manipulés est un défi important. Ce programme vise à soutenir les salles de rédaction qui tentent de faire ce travail.
En novembre 2020 se tiendront les élections américaines et les actions de Facebook, déjà pointé du doigt, seront particulièrement scrutées. L’entreprise de Mark Zuckerberg indique que sa politique face aux manipulations est en constante évolution et qu’elle s’engage à investir pour trouver une solution.