Auparavant, il était simple de reconnaître une image crée par IA par des caractéristiques révélatrices. Mais aujourd’hui, l’intelligence artificielle nous fait douter de presque tout ce que nous voyons et entendons. Les signaux révélateurs d’une fausse image deviennent moins évidents. Pour rendre les choses encore plus confuses, il est maintenant possible de produire de fausses vidéos, des clones vocaux de vos proches et de faux articles en l’espace de quelques secondes.
Il est important d’être conscient des dangers que représentent les deepfakes d’IA afin d’éviter de vous faire avoir par de faux contenus.
L’explosion du nombre de deepfakes
Un deepfake représente une photo d’une personne. Elle est entièrement fausse. Les deepfakes sont amusants lorsqu’ils circulent sous forme de blagues, mais très peu de gens les trouvent amusants lorsqu’ils sont utilisés à des fins perverses.
Ils étaient autrefois produits à partir d’une photo existante qui avait été retouchée dans Photoshop. Aujourd’hui, les deepfakes peuvent être créés à partir de zéro à l’aide de techniques de deep learning.
Ils intègrent désormais le clonage de voix, le clonage de texte, le clonage de vidéo et le clonage d’image grâce aux outils d’IA. Les quatre modes de production d’IA peuvent être utilisés ensemble pour produire des deepfakes parfaits.
Il est aujourd’hui possible de créer des deepfakes à un rythme jamais vu auparavant. Il s’agit désormais d’un processus automatisé rapide et peu coûteux, le tout sans nécessiter de connaissances préalables en matière d’édition d’images, de vidéos ou d’audio.
En quoi les générateurs de deepfakes peuvent-ils être dangereux ?
Les générateurs de voix et de vidéos d’IA abondent. Il en résulte les deepfakes les plus convaincants que nous n’ayons encore jamais vus dans l’histoire contemporaine.
Une méthode pour éviter d’être dupé est d’être conscient des différentes IA deepfakes et de la manière dont elles peuvent être utilisées pour vous tromper. Voici quelques exemples concrets des dangers potentiels posés par la technologie des deepfakes d’IA.
- Ils peuvent servir à usurper l'identité
Vous les avez peut-être vus. L’un des premiers deepfakes d’IA qui a vraiment réussi à devenir viral était une photo du président Emmannuel Macron dans des manifestations.
Cette image, qui représente une personnalité politique en grande difficulté avec le peuple, a des conséquences beaucoup plus importantes si elle est considérée comme réelle.
Jusqu’à présent, la plupart des deepfakes d’IA ont été réalisés pour usurper l’identité de politiciens, de célébrités et d’autres personnages bien connus. Cela s’explique en partie par le fait que les personnes connues figurent fréquemment sur les photographies en ligne, ce qui a probablement contribué à l’entraînement du modèle.

Pour un outil comme Midjourney, qui a été utilisé pour les deepfakes de Macron, il suffit à l’utilisateur d’entrer un texte exprimant ce qu’il veut voir pour générer une image réaliste. Le style artistique peut être décrit à l’aide de mots tels que « photographie » ou « photoréalisme », et les résultats peuvent être ajustés en augmentant la résolution.
Pour des raisons éthiques et juridiques évidentes, vous devriez vous abstenir de mettre ces photographies à la disposition du public. Vous pouvez tout aussi bien apprendre à utiliser Midjourney et tenter l’expérience par vous-même.
Malheureusement, le fait d’être un être humain ordinaire non célèbre ne vous protégera pas nécessairement contre les deepfakes d’IA.
La difficulté vient d’une fonction cruciale fournie par les générateurs d’images d’IA : la capacité de télécharger sa propre image et d’y appliquer l’IA. En saisissant un texte et en définissant ce que vous souhaitez générer, un outil comme Outpainting de DALL-E 2 vous permet de créer des variantes d’une image au-delà de ses limites.
Les risques pourraient être bien plus importants que le deepfake d’Emmanuel Macron si quelqu’un devait faire cela avec l’une de vos images, car il pourrait l’utiliser ailleurs en se faisant passer pour vous. Bien que la plupart des utilisateurs d’IA soient animés de bonnes intentions, peu de lois empêchent les gens d’abuser de la technologie, notamment dans les cas d’usurpation d’identité.
- Ils peuvent servir à usurper la voix
Les deepfakes ont franchi une limite à laquelle la plupart d’entre nous n’étaient pas préparés avec l’aide de l’IA : le clonage de voix. Un modèle d’IA peut imiter votre voix à l’aide d’une petite quantité d’audio original, provenant éventuellement d’une vidéo TikTok que vous avez déjà partagée ou d’une vidéo YouTube dans laquelle vous êtes apparu.
Imaginez que vous receviez un appel qui ressemble à celui d’un ami, d’un membre de votre famille ou d’un collègue. C’est à la fois étrange et terrifiant. Plusieurs organisations ont lancé un avertissement concernant les clones vocaux de type « deepfake », parce qu’ils représentent un risque majeur.
Selon un article paru dans le Washington Post, un couple de septuagénaires a reçu un appel d’une personne ressemblant trait pour trait à leur petit-fils. Il était incarcéré et avait désespérément besoin d’argent pour payer sa caution. Ils ont donné l’argent à l’escroc car ils n’avaient aucune raison de se demander à qui ils parlaient.
Le Guardian cite un autre cas, celui d’un directeur de banque qui a autorisé une transaction de 35 millions de dollars à la suite d’une série d’appels d’une personne qu’il avait prise pour le directeur de banque. Preuve que la génération des aînés n’est pas la seule à être menacée.
- Ils peuvent servir à propager des fake-news
Comme nous manquons actuellement de moyens fiables pour faire la différence, les grands modèles de langage comme ChatGPT sont très habiles à produire des textes qui ressemblent à s’y méprendre à de la parole humaine. Entre de mauvaises mains, les fausses informations et les conspirations seront plus faciles à fabriquer et plus longues à réfuter.
Bien sûr, la diffusion de fausses informations n’a rien de nouveau, mais une étude publiée en janvier 2023 indique que le problème réside dans la facilité avec laquelle les technologies d’IA peuvent augmenter la production. Les auteurs de l’étude parlent de « campagnes d’influence générées par l’IA » et affirment que les hommes politiques pourraient les utiliser pour externaliser leurs efforts politiques.
Un deepfake de haut niveau peut être produit en combinant plusieurs sources générées par l’IA. Par exemple, un modèle d’IA peut produire un article de presse bien écrit et convaincant pour accompagner la photo fictive de Donald Trump en détention. L’article gagne ainsi en crédibilité par rapport à la simple diffusion de la photo.
Les fake news ne se limitent pas aux mots et aux photographies ; les progrès récents en matière de production vidéo par l’IA ont entraîné une augmentation de l’apparition de vidéos deepfakes. En voici une où l’on voit Donald Trump superposé à une vidéo de Joe Biden.
Le téléchargement d’une application peut faciliter la création d’un deepfake. En téléchargeant vos propres images, vous pouvez utiliser une application comme Deepswap pour créer un deepfake en quelques minutes.
Deepfakes d'IA : à surveiller
Les deepfakes peuvent être créés rapidement pour un coût très faible et des connaissances techniques minimales. Ils peuvent prendre la forme d’une voix synthétisée, d’une image générée, d’un texte ou d’un mélange des 3.
En raison de l’abondance des logiciels d’IA disponibles aujourd’hui, il est désormais beaucoup plus facile et moins long pour quiconque de créer un « deepfake » qu’il ne l’était auparavant. Il est important de surveiller de près les risques que présente la technologie de l’IA deepfake, qui devient de plus en plus sophistiquée.
C’est déjà la fin de cet article. Vous voulez en apprendre davantage sur l’intelligence artificielle ? Consultez nos actualités et nos guides pour vous familiariser avec cette technologie d’avenir.