Parmi les applications du moment les plus décriées de l'intelligence artificielle figurent celles qui consistent à falsifier des supports multimédias (vidéos, images ou bandes sons...) dont il est de plus en plus difficile de savoir s'il s'agit d'un support orignal ou corrompu. Vous avez pu vous en rendre compte par vous-même en regardant la vidéo dans laquelle Barack Obama parle comme Donald Trump [1]. Nous allons découvrir dans cet article comment utiliser les réseaux génératifs antagonistes, pour créer des images ou vidéos truquées, communément appelées deepfakes.
En effectuant une recherche rapide sur Internet, nous trouvons une multitude de variantes de réseaux générateurs antagonistes communément appelés GAN (c.-à-d. Generative Adversarial Networks) suivant l'application ou la spécificité recherchée [2]. Comme pour tout réseau de neurones, il faut un jeu de données sur lequel le réseau va apprendre. Bien souvent, les jeux de données d'écriture digitale MNIST ou CIFAR-10 servent de base, tout du moins pour apprendre le fonctionnement d'un réseau génératif antagoniste basique. C'est ce que nous ferons dans la première partie de cet article, avant d'aborder la génération d'images plus complexes, telles que le transfert de style obtenu en remplaçant un visage par un autre avec CGAN [3][4] ou CycleGAN [5]. Une vidéo n'étant qu'une succession d'images, il est ainsi aisé de générer des deepfakes. Tout du moins pour la partie visuelle. Les mêmes réseaux génératifs peuvent également être utilisés pour créer ou...
- Accédez à tous les contenus de Connect en illimité
- Découvrez des listes de lecture et des contenus Premium
- Consultez les nouveaux articles en avant-première