Le Deepfakes Day 2022, qui s’est tenu en ligne la semaine dernière, était organisé par la division CERT (Computer Emergency Response Team) du Software Engineering Institute (SEI) de l’Université Carnegie Mellon, qui s’associe au gouvernement, à l’industrie, aux forces de l’ordre et aux universités pour améliorer la sécurité et la résilience des systèmes et réseaux informatiques, dans le but d’examiner la menace croissante des hypertrucages (deepfakes).
Le CERT décrit un hypertrucage comme un « fichier multimédia, généralement des vidéos, des images ou un discours représentant un sujet humain, qui a été modifié de manière trompeuse à l’aide de réseaux de neurones profonds pour altérer l’identité d’une personne. Les progrès de l’apprentissage automatique ont accéléré la disponibilité et la sophistication des outils de création de contenu hypertruqué. À mesure que la création d’hypertrucages augmente, les risques pour la confidentialité et la sécurité augmentent également ».
Au cours de la conférence d’ouverture, deux experts du centre de coordination de l’équipe d’intervention en cas d’urgence informatique (CERT) – la scientifique des données Shannon Gallagher et Thomas Scanlon, un ingénieur technique – ont emmené leur auditoire à travers une visite exploratoire d’une menace de sécurité croissante qui ne montre aucun signe de déclin.
« Une partie de la recherche dans ce domaine et de la sensibilisation aux hypertrucages consiste à protéger les gens de certains des cyber-défis et des défis de sécurité personnelle et de confidentialité que présentent les hypertrucages », a déclaré Scanlon.
Un article de blog du SEI publié en mars déclarait que « l’existence d’un large éventail d’outils de manipulation vidéo signifie qu’une vidéo découverte en ligne n’est pas toujours fiable. De plus, alors que le concept des hypertrucages a gagné en visibilité dans les médias populaires, la presse et les médias sociaux, une menace parallèle a émergé du soi-disant dividende du menteur – contester l’authenticité ou la véracité d’informations légitimes par le biais d’une fausse affirmation selon laquelle quelque chose est un hypertrucage même si ce n’est pas le cas.
Le séminaire comprenait une discussion sur l’utilisation criminelle des hypertrucages, citant des exemples, notamment des cybercriminels qui ont convaincu un PDG de virer 243 000 $US sur le compte bancaire d’un escroc en utilisant un hypertrucage, et des politiciens du Royaume-Uni, de Lettonie, d’Estonie et de Lituanie qui ont été dupés dans de fausses réunions avec des personnalités de l’opposition.
Les principaux points à retenir fournis par les deux experts en cybersécurité étaient les suivants :
Bonne nouvelle : Même en utilisant des outils déjà construits (Faceswap, DeepFace Lab, etc.), il faut encore beaucoup de temps et de ressources de processeur graphique (GPU) pour créer des hypertrucages même de qualité inférieure.
Mauvaise nouvelle : Les criminels bien financés peuvent engager des ressources pour créer des hypertrucages de meilleure qualité, en particulier pour des cibles de grande valeur.
Bonne nouvelle : Les hypertrucages ne sont principalement que des échanges de visage et des reconstitutions faciales.
Mauvaise nouvelle : À terme, les capacités technologiques s’étendront au-delà des visages.
Bonne nouvelle : Des avancées sont en cours dans la détection des hypertrucages.
Mauvaise nouvelle : La technologie de création d’hypertrucages continue de progresser ; ce sera probablement une bataille sans fin similaire à celle des logiciels antivirus contre les logiciels malveillants.
En termes de ce qu’une organisation peut faire pour éviter de devenir une victime, la clé, a déclaré Scanlon, réside dans la compréhension des capacités actuelles de création et de détection, et dans l’élaboration de programmes de formation et de sensibilisation.
Il est également important, a-t-il dit, de pouvoir détecter un hypertrucage, et les « indices pratiques » incluent le scintillement, les mouvements et les expressions non naturels, l’absence de clignement des yeux et les couleurs de cheveux et de peau non naturelles.
Adaptation et traduction française par Renaud Larue-Langlois.