Lorsque des manifestations au Pakistan ont dégénéré en affrontements entre les forces pro-gouvernementales et les partisans de l'ancien Premier ministre Imran Khan, ce dernier s'est tourné vers les réseaux sociaux pour renforcer son message. Khan a partagé une vidéo montrant ses partisans brandissant des pancartes à son effigie et scandant son nom. Cependant, une image montrant une femme faisant face à la police n'était pas réelle, mais créée à l'aide d'un générateur d'images basé sur l'IA.
Khan n'est pas le seul dirigeant politique à utiliser des deepfakes à des fins politiques. Un nouveau rapport de Freedom House révèle que des dirigeants politiques d'au moins 16 pays ont utilisé des deepfakes pour "semer le doute, diffamer des adversaires ou influencer le débat public". Parmi ces exemples, deux proviennent des États-Unis. L'ancien président Donald Trump et le gouverneur de Floride, Ron DeSantis, ont utilisé des vidéos et des audios deepfakes pour tenter de se discréditer mutuellement.
Freedom House souligne dans son rapport "Freedom on the Net" que l'IA peut servir d'amplificateur de la répression numérique, rendant la censure, la surveillance et la création et la diffusion de désinformation plus faciles, rapides, moins chères et plus efficaces. Le rapport détaille de nombreuses manières inquiétantes dont les outils d'IA avancés sont utilisés pour amplifier la répression politique à travers le monde.
Dans certains cas, des acteurs étatiques font appel à des entreprises privées spécialisées dans la création de propagande générée par l'IA. Par exemple, des stations de nouvelles soutenues par l'État au Venezuela ont partagé des vidéos d'animateurs de nouvelles générés par l'IA, créés par une entreprise appelée Synthesia, pour contrer les critiques occidentales du pays.
Le rapport de Freedom House montre également une augmentation des acteurs politiques qualifiant de deepfakes des vidéos et des audios qui sont en réalité authentiques. Dans un exemple, un haut fonctionnaire de l'État en Inde a tenté de discréditer une fuite audio en prétendant qu'elle était générée par l'IA, alors qu'elle était réelle.
Bien que la majorité des efforts de manipulation politique et de désinformation découverts par Freedom House au cours de la dernière année reposent encore principalement sur le déploiement de bots et de trolls payés, cette équation pourrait changer à mesure que les outils d'IA générative deviennent plus convaincants et moins chers. Même une manipulation par l'IA peu convaincante ou facilement réfutable "mine la confiance du public dans le processus démocratique", selon Freedom House.
"Les droits de l'homme en ligne sont une cible clé des autocrates d'aujourd'hui", a déclaré Michael J. Abramowitz, président de Freedom House. "Les États démocratiques devraient renforcer leur réglementation de l'IA pour offrir plus de transparence, fournir des mécanismes de surveillance efficaces et privilégier la protection des droits de l'homme."