Rodolphe Koller travaille pour ICT Journal. Il est également l'invité de Simon une fois par semaine à 17h20. Et il est revenu sur une actualité qui a marqué le monde des réseaux sociaux: cette fameuse vidéo du président ukrainien dans laquelle il invitait ses troupes à déposer les armes.
En fait, cette vidéo était totalement truquée à l'aide de l'intelligence artificielle. C'est ce que l'on appelle un deepfake ou hypertrucage. Le terme deepfake est un mot-valise formé à partir de deep learning, qui veut dire « apprentissage profond » et de fake, « faux », « contrefait ».
Cette vidéo a très vite été repérée par Facebook qui l'a supprimée de sa plateforme et qui a immédiatement averti les autres réseaux. Quant au président ukrainien, il s'est empressé de publier une autre vidéo pour démentir le message et se moquer de la tentative de désinformation.
Il y a de plus en plus d'outils et de services pour générer ce genre de vidéos sur le net et sur le darknet.
Les buts sont divers: créer des parodies, ou des vidéos pornographiques mettant en scène des célébrités, etc... Elles sont utiles aux pirates à des fins frauduleuses, mais les états s'y mettent également pour tromper une population.
Ce qui est intéressant à observer c'est qu'on se méfie de beaucoup de choses, mais pas des vidéos. L'être humain a tendance à croire ce qu'il voit. Alors comment contrer cela?
La création et la détection de ces fausses vidéos ont ceci de commun, c'est qu'elles font appel toutes les deux à l'intelligence artificielle. Il y a deux ans, Facebook a créé volontairement des deepfakes et a lancé un défi aux personnes qui y parviendraient de créer des outils intelligents pour les détecter.
Un jeu de ping-pong détaillé par Rodolphe Koller dans le podcast ci-dessous.
En attendant, ne croyez surtout pas tout ce que vous voyez! Gardez un esprit critique et restez vigilants.
MS