Le deepfake, contraction des termes « deep learning » et « fake », est une technique de manipulation vidéo qui utilise l’intelligence artificielle (IA) pour superposer le visage d’une personne sur celui d’une autre dans une vidéo, créant ainsi une illusion parfaite de réalisme. Cette technologie, bien que fascinante, soulève de nombreuses préoccupations en matière de sécurité, d’éthique et de vie privée.
Derrière son téléphone portable ou son ordinateur, avec quelques applications de l’IA et un peu de maniement de ces outils, on arrive si facilement à créer l’illusion parfaite. Le deepfake a été popularisé ces dernières années grâce à des applications et des logiciels accessibles au grand public, permettant à quiconque disposant d’un ordinateur et d’un peu de temps d’apprendre à créer des vidéos truquées convaincantes.
En d’autres termes, les vidéos Deepfake sont des médias synthétiques dans lesquels une personne dans une image ou une vidéo existante est remplacée par l’image de quelqu’un d’autre. Il est vrai que cette technologie existe depuis plusieurs années, mais elle est devenue récemment de plus en plus sophistiquée et accessible grâce à des outils numériques de l’intelligence artificielle.
Le champ d’une telle pratique technologique est bien vaste et va au-delà de simples blagues ou parodies puisque cela implique de multiples conséquences.
A (re) lire : Fact-checking : L’AFCA renforce la lutte contre la més/désinformation ce 20 avril
Tout d’abord, il peut être utilisé à des fins de désinformation et de manipulation. A cet effet, en modifiant les discours ou les actions de personnalités politiques ou publiques, le deepfake peut semer la confusion et influencer l’opinion publique. Par exemple, une vidéo truquée de l’ancien Président américain, Barack Obama, a été diffusée sur Internet, dans laquelle il semblait faire des déclarations choquantes. Ce genre de contenu peut avoir un impact considérable sur les élections, les relations internationales et la confiance du public envers les médias.
Ensuite, le deepfake peut également être utilisé à des fins de chantage ou d’extorsion. En superposant le visage d’une personne sur une vidéo pornographique, par exemple, des individus malintentionnés peuvent menacer de diffuser ces contenus à moins que la victime ne paie une rançon. Cela soulève des questions de vie privée et de consentement, ainsi que des préoccupations concernant la sécurité en ligne.
Enfin, le deepfake pose également des défis en matière de droit d’auteur et de propriété intellectuelle. En utilisant le visage d’une célébrité dans une publicité ou un film sans autorisation, le deepfake peut porter atteinte à la réputation et à l’image de la personne concernée. De plus, il est difficile de déterminer la responsabilité légale en cas d’utilisation abusive de cette technologie.
« Imaginez ça une seconde: un homme avec le contrôle total des données volées de milliards de personnes, leurs secrets, leurs vies, leur avenir. Je dois tout cela à Spectre. Spectre m’a montré que quiconque contrôle les données contrôle l’avenir », avertit un « faux » Mark Zuckerberg dans une courte vidéo postée sur Instagram par l’artiste britannique Bill Posters pour promouvoir son projet « Spectre » qui veut dénoncer les dérives des géants technologiques.
L’actrice Jennifer Lawrence avait vu ses traits remplacés par ceux de l’Américain Steve Buscemi. Une séquence montrant les avancées technologiques en la matière. Ce faux très réussi avait été repéré par Mikael Thalen, journaliste indépendant. Son auteur serait l’internaute Villain Guy.
Un autre exemple est celui de l’ancien Président des États-Unis, Donald Trump. Dans une vidéo créée par l’IA, on voit Donald Trump se moquer de Barack Obama. Même si c’est sous la forme d’une parodie, une telle vidéo semble réaliste et pourrait créer des préjudices à plusieurs égards.
Face au deepfake, que faire?
Face à ces enjeux, il est crucial de trouver des moyens de lutter contre le deepfake. Plusieurs approches sont actuellement explorées pour détecter et contrer les vidéos truquées. Tout d’abord, les chercheurs travaillent sur le développement d’algorithmes capables d’identifier les signes révélateurs du deepfake, tels que les artefacts numériques ou les incohérences visuelles. Des entreprises spécialisées proposent également des solutions de vérification vidéo pour authentifier l’origine et l’intégrité des contenus multimédias.
Par ailleurs, il est essentiel d’éduquer le public sur les dangers du deepfake et sur les moyens de vérifier la véracité des vidéos en ligne. En encourageant la méfiance envers les contenus manipulés et en promouvant la pensée critique, il est possible de limiter l’impact du deepfake sur la société.
En somme, plusieurs outils et techniques peuvent être utilisés pour détecter les deepfakes, comme la recherche d’incohérences dans les expressions faciales, la texture de la peau et l’éclairage. Cependant, les deepfakes deviennent de plus en plus sophistiqués, ce qui rend plus difficile leur détection. Pour cela, il faut rechercher les signes qui donnent à penser que les vidéos partagées sur les réseaux sociaux pourraient être de fausses photos ou visuels générés par l’IA.
A (re) lire : FAUX : Il n’y a pas eu remaniement ministériel au Cameroun au mois de février 2023
Le texte généré par l’IA peut parfois être grammaticalement incorrect ou avoir une formulation étrange. En effet, les systèmes d’IA sont formés sur de vastes ensembles de données de texte, qui ne contiennent parfois qu’une grammaire parfaite ou une utilisation du langage naturel. Ce texte généré par l’IA peut parfois partir sur des tangentes ou introduire de nouvelles informations sans rapport avec le sujet principal. En effet, les systèmes d’IA ne comprennent pas toujours le contexte du texte qu’ils génèrent.
Les photos et vidéos générées par l’IA peuvent parfois avoir un éclairage, des gestes faciaux ou des arrière-plans particuliers. En effet, les systèmes d’IA ne sont pas toujours capables de générer avec précision des images et des vidéos réalistes. Ces vidéos générées par l’IA sont souvent créées en assemblant différents clips, il peut donc y avoir des incohérences dans l’éclairage, les ombres ou l’arrière-plan. Le teint du sujet peut changer d’une prise de vue à l’autre ou les ombres peuvent être dans des directions différentes. Ces vidéos peuvent avoir des difficultés à restituer avec précision les mouvements humains, de sorte qu’il peut y avoir des mouvements étranges ou non naturels dans la vidéo. Le visage de la ou des personnes dans la vidéo peut se tordre ou leurs membres peuvent bouger étrangement. Elles sont souvent de mauvaise qualité, surtout si elles sont créées à l’aide d’un générateur vidéo AI gratuit ou à faible coût. Recherchez la pixellisation, le flou ou d’autres artefacts vidéo.
Toutefois, la technologie de génération vidéo par l’IA s’améliore constamment. Il est donc important de connaître les dernières techniques. Vous pouvez le faire en lisant des articles et des blogs sur la génération de vidéos IA ou en suivant des experts sur les réseaux sociaux.
La dernière étape dans les démarches à mener face à un deepfake est d’identifier la source de l’information. Il faut donc se poser les questions: d’où vient la désinformation ou cette vidéo ? Qui l’a posté ? Quelles sont leurs références ? En se posant ces différentes questions, on est à même de vérifier les informations, vérifier les faits et voir s’il existe de preuves à l’appui de cette affirmation dans une telle vidéo. Si dans cette démarche, on ne trouve pas de preuves convaincantes pour étayer de telles affirmations dans une telle vidéo, cela signifie qu’elle est probablement fausse, donc, une désinformation potentielle qui devrait mériter davantage notre attention et déterminer l’action à mener.
A (re) lire : FAUX : Le BRDC n’a pas distribué des grenades et machettes
Une fois que vous avez vérifié que la désinformation est fausse, expliquez pourquoi elle est incorrecte de manière claire et concise. Assurez-vous de fournir des preuves à l’appui de vos affirmations. Il est nécessaire de briser la chaîne de la désinformation de votre côté.
Dans cette lutte, des gouvernement ou organismes essayent d’élaborer des textes pour réglementer le monde numérique afin de prévenir les abus de cette technologie et protéger la sécurité et la vie privée des individus.
En conclusion, le deepfake représente un défi majeur pour notre société moderne. En modifiant notre perception de la réalité et en remettant en question la véracité des contenus médiatiques, cette technologie soulève des questions fondamentales sur la confiance, la vie privée et la démocratie. Il est impératif que nous prenions des mesures pour contrer ces manipulations et protéger l’intégrité de l’information en ligne.