Ingénierie sociale 2.0 : quand l’IA arme les cybercriminels

L’ingénierie sociale est un des outils préférés des pirates : elle nécessite peu de moyens et cible le vecteur humain qui reste le maillon faible de chaque SI. Au fur et à mesure des sensibilisations, les employés apprennent à se méfier des courriels qui les placent dans une situation d’urgence face à une figure prétendue d’autorité. Ces attaques existent depuis les débuts de l’Internet, la plupart des gens en sont conscients et prennent les précautions nécessaires. Mais catastrophe ! Les avancées récentes en IA offrent aux cybercriminels de nouvelles capacités pour duper leurs victimes. Grâce aux deepfakes, de nouveaux vecteurs d’attaque multimédia en temps réel voient le jour. Quand nous croyons échanger de manière fluide avec des collègues, nous parlons en réalité à des escrocs exploitant nos biais cognitifs pour arriver à leurs fins. Mais comment imaginer qu’ils ne sont pas réels et pourquoi ne pas répondre à leurs demandes ?