L’ingénierie sociale est un des outils préférés des pirates : elle nécessite peu de moyens et cible le vecteur humain qui reste le maillon faible de chaque SI. Au fur et à mesure des sensibilisations, les employés apprennent à se méfier des courriels qui les placent dans une situation d’urgence face à une figure prétendue d’autorité. Ces attaques existent depuis les débuts de l’Internet, la plupart des gens en sont conscients et prennent les précautions nécessaires. Mais catastrophe ! Les avancées récentes en IA offrent aux cybercriminels de nouvelles capacités pour duper leurs victimes. Grâce aux deepfakes, de nouveaux vecteurs d’attaque multimédia en temps réel voient le jour. Quand nous croyons échanger de manière fluide avec des collègues, nous parlons en réalité à des escrocs exploitant nos biais cognitifs pour arriver à leurs fins. Mais comment imaginer qu’ils ne sont pas réels et pourquoi ne pas répondre à leurs demandes ?
1. Historique de la technologie
Le terme deepfake est aujourd'hui largement répandu, mais on connaît moins souvent ses origines. En 2017 un redditeur sous le pseudonyme « DeepFakes » publie des vidéos de célébrités dans des scènes explicites, suscitant beaucoup d’agitations sur le site [1]. Rapidement les personnes concernées, choquées, ont démenti la véracité de ces images.
Quelques mois plus tard, l’utilisateur et son subreddit se font bannir par les modérateurs du site, mais « DeepFakes » a eu le temps d’expliquer sa méthode. Rapidement, d’autres utilisateurs vont réimplémenter la technique et la diffuser librement.
À cette époque, des techniques d’échange de visages (face swapping) existent déjà, mais jusqu’alors il était facile de se rendre compte de la supercherie. Cette nouvelle approche, basée sur le deep learning, d’où le nom de deepfake, est rapidement devenue l’état de l’art et a ouvert tout un champ de recherche...
- Accédez à tous les contenus de Connect en illimité
- Découvrez des listes de lecture et des contenus Premium
- Consultez les nouveaux articles en avant-première
[1] Roose, K. (4 mars 2018). Here Come the Fake Videos, Too. The New York Times. https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html
[2] @deeptomcruise. (n.d.). Profil TikTok. https://www.tiktok.com/@deeptomcruise
[3] Herb, J., & Cohen, Z. (15 mai 2024). US intelligence saw China and Iran using deepfakes to meddle in 2020 election. CNN. https://edition.cnn.com/2024/05/15/politics/us-intelligence-china-iran-deepfakes-2020-election/index.html
[4] Brewster, T. (14 octobre 2021). Huge bank fraud uses deep fake voice tech to steal millions. Forbes. https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions/?sh=7ce90bb07559&s=08
[5] Usine Digitale. (n.d.). Une entreprise se fait arnaquer de 24 millions d’euros à l’aide d’un deepfake de son directeur financier. https://www.usine-digitale.fr/editorial/une-entreprise-se-fait-arnaquer-de-24-millions-d-euros-a-l-aide-d-un-deepfake-de-son-directeur-financier.N2207818
[6] Financial Times. (n.d.). Deepfake technology: A growing cybercrime threat. https://www.ft.com/content/308c42af-2bf8-47e4-a360-517d5391b0b0
[7] CNN. (16 mai 2024). Arup deepfake scam: Hong Kong employee tricked into transferring millions. https://www.cnn.com/2024/05/16/tech/arup-deepfake-scam-loss-hong-kong-intl-hnk/index.html
[8] Le Monde. (26 janvier 2024). Taylor Swift deepfake porn images spark outrage. https://www.lemonde.fr/en/pixels/article/2024/01/26/taylor-swift-deepfake-porn-images-spark-outrage_6469808_13.html
[9] Libération. (22 septembre 2023). 22 plaintes, des adolescentes victimes... dans le sud-ouest de l’Espagne, le «deepfake porn» fait des ravages. https://www.liberation.fr/international/europe/une-fois-que-cest-sur-internet-il-est-quasiment-impossible-de-le-faire-disparaitre-en-estremadure-le-deepfake-porn-fait-des-ravages-20230922_YN6YWAZN2BHDBKKTVYY75ELE5Q/
[10] Le Monde. (30 Août 2024). En Corée du Sud, la jeunesse victime et bourreau des deepfakes pornographiques. https://www.lemonde.fr/pixels/article/2024/08/30/en-coree-du-sud-la-jeunesse-victime-et-bourreau-des-deepfakes-pornographiques_6299665_4408996.html
[11] BuzzFeed et Jordan Peele. (2018). Deepfake de Barack Obama : sensibilisation aux dangers des manipulations numériques [Vidéo]. BuzzFeed sur YouTube.
https://www.youtube.com/watch?v=AmUC4m6w1wo
[12] La Croix. (5 avril 2024). La Slovaquie, laboratoire de la désinformation en Europe. https://www.la-croix.com/international/la-slovaquie-laboratoire-de-la-desinformation-en-europe-20240405
[13] Manalang, I. C., & Samson, D. B. (16 septembre 2024). 'Polvoron' video crumbles, AI experts find traces of facial manipulation. VERA File.
https://verafiles.org/articles/polvoron-video-crumbles-ai-experts-find-traces-of-facial-manipulation
[14] Thalen, M. [@MikaelThalen]. (15 mars 2022). [Tweet]. X (anciennement Twitter). https://x.com/MikaelThalen/status/1504123674516885507
[15] Pan, S. J., & Yang, Q. (2010). A Survey on Transfer Learning. IEEE Transactions on Knowledge and Data Engineering, 22(10), 1345–1359. https://doi.org/10.1109/TKDE.2009.191
[16] Zakharov, E., Shysheya, A., Burkov, E., & Lempitsky, V. (2019). Few-Shot Adversarial Learning of Realistic Neural Talking Head Models. arXiv preprint. https://arxiv.org/abs/1905.08233
[17] Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press. https://www.deeplearningbook.org/
[18] Nirkin, Y., Keller, Y., & Hassner, T. (2019). FSGAN: Subject Agnostic Face Swapping and Reenactment. Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 7184-7193. https://arxiv.org/abs/1908.05932
[19] Wang, X., Zhang, Y., Zhu, H., Tang, C.-K., & Loy, C. C. (2021). Towards Real-World Blind Face Restoration with Generative Facial Prior. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 9168-9178. https://arxiv.org/abs/2101.04061
[20] Karras, T., Laine, S., & Aila, T. (2019). A Style-Based Generator Architecture for Generative Adversarial Networks. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 4401-4410. https://arxiv.org/abs/1812.04948
[21] Zhu, J. Y., Park, T., Isola, P., & Efros, A. A. (2017). Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. Proceedings of the IEEE International Conference on Computer Vision (ICCV), 2242-2251. https://arxiv.org/abs/1703.10593
[22] Isola, P., Zhu, J.-Y., Zhou, T., & Efros, A. A. (2017). Image-to-Image Translation with Conditional Adversarial Networks. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 1125-1134. https://arxiv.org/abs/1611.07004
[23] Larsen, A. B. L., Sønderby, S. K., Larochelle, H., & Winther, O. (2016). Autoencoding Beyond Pixels Using a Learned Similarity Metric. Proceedings of the 33rd International Conference on Machine Learning (ICML), 1558-1566. https://arxiv.org/abs/1512.09300
[24] Kim, J., Kim, S., Kong, J., & Son, J. (2021). Conditional Variational Autoencoder with Adversarial Learning for End-to-End Text-to-Speech. Proceedings of the 38th International Conference on Machine Learning (ICML). https://arxiv.org/abs/2106.06103
[25] Wang, Y., Skerry-Ryan, R., Stanton, D., Wu, Y., Weiss, R. J., Jaitly, N., Yang, Z., Xiao, Y., Chen, Z., Bengio, S., Le, Q., Agiomyrgiannakis, Y., Clark, R., & Saurous, R. A. (2017). Tacotron: Towards End-to-End Speech Synthesis. Proceedings of Interspeech 2017, 4006-4010. https://arxiv.org/abs/1703.10135
[26] Perov, I. (2020). DeepFaceLab: A Toolbox for Deepfake Creation. GitHub Repository. https://github.com/iperov/DeepFaceLab
[27] FaceFusion. (n.d.). FaceFusion: Advanced Face Manipulation and Fusion Techniques. GitHub Repository. https://github.com/facefusion
[28] JustLD. (2022). FaceSwapper: High Precision Face Swapping Using InsightFace. GitHub Repository. https://github.com/justld/dofaker
[29] Deepfakes Community. (2021). FaceSwap: À Framework for Face Swapping. GitHub Repository. https://github.com/deepfakes/faceswap
[30] Chen, R., et al. (2020). SimSwap: An Efficient Framework for High Fidelity Face Swapping. GitHub Repository. https://github.com/neuralchen/SimSwap
[31] Wang, H. (2023). Inswapper: One-click Face Swapper and Restoration powered by InsightFace. GitHub. https://github.com/haofanwang/inswapper
[32] Liu, Z., Luo, P., Wang, X., & Tang, X. (2015). Deep Learning Face Attributes in the Wild. CelebA Dataset. https://mmlab.ie.cuhk.edu.hk/projects/CelebA.html
[33] Li, Y., & Lyu, S. (2020). Celeb-DF: A New Dataset for DeepFake Forensics. arXiv preprint. https://github.com/yuezunli/celeb-deepfakeforensics
[34] Karras, T., Laine, S., & Aila, T. (2019). Flickr-Faces-HQ (FFHQ) Dataset. GitHub Repository. https://github.com/NVlabs/ffhq-dataset
[35] Cao, Q., Shen, L., Xie, W., Parkhi, O. M., & Zisserman, A. (2018). VGGFace2: A Dataset for Recognizing Faces Across Pose and Age. https://www.robots.ox.ac.uk/~vgg/data/vgg_face2/
[36] Perov, I. (n.d.). DeepFaceLive: Real-Time Deepfake Streaming. GitHub Repository. https://github.com/iperov/DeepFaceLive
[37] Hacksider. (n.d.). Deep-Live-Cam: Real-Time Face Swap and One-Click Video Deepfake with Only a Single Image. GitHub Repository. https://github.com/hacksider/Deep-Live-Cam
[38] InsightFace Team. (n.d.). InsightFace: An Open Source 2D & 3D Deep Face Analysis Library. GitHub Repository. https://github.com/deepinsight/insightface
[39] PEReN. (2023). Hypertrucages : analyse des enjeux techniques. https://www.peren.fr
[40] OBS Studio. (n.d.). Open Broadcaster Software. GitHub Repository.
https://github.com/obsproject/obs-studio
[41] RVC Project. (n.d.). Retrieval-based Voice Conversion (RVC) Framework. GitHub Repository. https://github.com/RVC-Project/
[42] Robertson, J. (n.d.). pydub: Manipulate audio with a simple and easy high-level interface. GitHub Repository. https://github.com/jiaaro/pydub
[43] Artificial Intelligence Act. (n.d.). L’AI Act : Cadre réglementaire européen pour l’intelligence artificielle. Retrieved from https://artificialintelligenceact.eu/fr/38
[44] Légifrance. (2024). Loi n° 2024-21 du 21 mai 2024 pour sécuriser et réguler l’espace numérique (SREN). https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000047652431
[45] Yan, Z., Zhang, Y., Yuan, X., Lyu, S., & Wu, B. (2023). DeepfakeBench: A Comprehensive Benchmark of Deepfake Detection. arXiv preprint arXiv:2307.01426. GitHub Repository. https://github.com/SCLBD/DeepfakeBench
[46] Facebook AI. (2020). DeepFake Detection Dataset (DFDC). Dataset. https://ai.facebook.com/datasets/dfdc/
[47] Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J., & Nießner, M. (2019). FaceForensics++: Learning to Detect Manipulated Facial Images. arXiv Preprint Repository. https://github.com/ondyari/FaceForensics
[48] Korshunov, P., & Marcel, S. (2019). DF-TIMIT: Deepfake Detection Dataset Using GANs Applied to TIMIT Videos. Biometrics Security and Privacy Workshop. Dataset. https://github.com/tzengjh/DF-TIMIT
[49] Google AI. (2019). Google DeepFake Detection Dataset. Dataset. https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html
[50] CNIL. (n.d.). Panorama et perspectives pour les solutions de détection de contenus artificiels. LINC (Laboratoire d’Innovation Numérique de la CNIL). https://linc.cnil.fr/panorama-et-perspectives-pour-les-solutions-de-detection-de-contenus-artificiels-12
[51] The Sun. (2024). Meta reveals new AI weapon to defeat dangerous 'voice clone' deepfakes using hidden signals that your ears can't hear.
https://www.the-sun.com/tech/11671561/meta-audioseal-ai-deepfakes-release/
[52] Google DeepMind. (n.d.). SynthID: Watermarking tool for AI-generated content. https://deepmind.google/technologies/synthid