ATTENTION, LES "DEEPFAKE", DES VIDÉOS TRUQUÉES, SE MULTIPLIENT SUR LE NET
Grâce à l'intelligence artificielle, il est désormais possible de modifier la vidéo d'une personne qui parle pour lui faire dire tout autre chose, avec un réalisme aussi bluffant qu'effrayant.
Déjà omniprésentes sur la toile, les "fake news" sont en passe de devenir de plus en plus difficiles à repérer. Après les faux articles, les photos sorties de leur contexte ou les vidéos tronquées, voilà les "deepfake", les vidéos truquées. Elles se basent sur une technologie très élaborée, mélange d’intelligence artificielle et de reconnaissance faciale. Avec ces outils, on peut modifier la vidéo d’une personne qui parle pour lui faire dire autre chose, en recréant les mouvements de sa bouche. Ou bien carrément générer une vidéo à partir d'un nombre important de photos de son visage.
Les "deepfake" sont apparues il y a quelques mois, mais on en voit de plus en plus depuis quelques jours. On a notamment vu une vidéo de Mark Zuckerberg, le patron de Facebook, affirmant qu’il contrôle nos données et peut voir le futur. Un fake à vocation "artistique" d'après ses auteurs, mais très troublant malgré tout. Sur Youtube, on peut aussi trouver une vidéo reprenant une séquence de Game of Thrones dans laquelle on voit Jon Snow s’excuser pour la piètre qualité de la saison 8 et brûler le script. Là encore, c’est clairement une vidéo à but humoristique mais c’est bluffant de réalisme, notamment dans les intonations de voix, répliques parfaites de l’accent de Kit Harrington.
Avant eux, Barack Obama, Donald Trump ou encore Angela Merkel ont fait l'objet de tels trucages, rapidement identifiés. Mais entre de mauvaises mains, les "deepfake" peuvent servir à véhiculer de faux messages politiques ou bien à faire du chantage avec de fausses vidéos compromettantes. Cette technologie est notamment utilisée pour modifier des films pornographiques afin d'y insérer le visage d'une célébrité (Daisy Ridley, Emma Watson et Gal Gadot en ont fait les frais) ou bien d'une personne lambda pour l'humilier (un dérivé du "revenge porn").
D'abord aisément identifiables grâce aux limites de la technologie, les "deepfake" sont désormais plus réalistes. Et surtout, ils prolifèrent. Jusqu’ici, créer des vidéos truquées nécessitait une puissance de calcul gigantesque pour modifier chaque image de la vidéo dans un ordre prédéfini. Donc ça limitait leur nombre et leur portée. Mais ça, c’était avant que des chercheurs de Stanford aient la "bonne" idée de mettre au point, début juin, une version simplifiée de ce trucage, avec l'aide des développeurs des logiciels Adobe.
Désormais, avec un simple logiciel, on peut modifier la vidéo d’un homme ou d’une femme qui parle simplement en retranscrivant ce qu’il ou elle dit puis en modifiant ce texte. Le logiciel reconstruit ensuite la vidéo en adaptant les mouvements de la bouche au nouveau texte. Le résultat est bluffant. Et ça, ça peut se faire sur l’ordinateur de monsieur et madame Tout-le-monde. On risque donc de voir les "deepfake" proliférer, malheureusement.
Il y a plusieurs techniques pour ne pas se faire avoir par ces fausses vidéos. D’abord, bien regarder les mouvements de la bouche. Parler mobilise énormément de muscles différents, c'est sans doute la gestuelle humaine la plus difficile à imiter. De plus, nous avons l'habitude de voir les gens parler. Donc s’il y a le moindre mouvement pas naturel ou le moindre décalage entre un son et un mouvement, notre cerveau tique mécaniquement. Pour les "deepfake" les moins évolués, la voix est aussi un indice. Par exemple, celle de la vidéo truquée de Mark Zuckerberg est un peu trop grave par rapport à celle du fondateur de Facebook.
Par ailleurs, si le message véhiculé par la vidéo vous semble un peu trop gros, ou complètement dingue, c'est peut-être parce qu'il l'est. Faîtes des recherches sur Internet pour vérifier l'authenticité de la vidéo. Si c'est un "deepfake", elle est généralement très vite identifiée et relayée comme telle. Donc, aujourd’hui, c’est encore possible de distinguer le vrai du faux, à condition d’être attentif à ce qu’on regarde. Mais jusqu’à quand ?
Source : Europe 1
Commentaires
Publier un nouveau commentaire