DEEPFAKE, DESINFORMATION ET MEDIAS

DEEPFAKE, DESINFORMATION ET MEDIAS

Les deepfakes, l’Intelligence Artificielle et les groupes médiatiques : voici les sujets de cette revue de web de juillet.

Deepfakes et manipulation

Les « deepfakes », sont désormais un des vecteurs des fake news. Ce documentaire d’Arte permet de comprendre comment ces hypertrucages sont créés et de réfléchir aux répercussions de ces techniques grâce à des spécialistes comme Nina Schick, une experte d’IA générative et Henry Adjer, philosophe.

Le terme « deepfake » fait référence à l’usage de l’intelligence artificielle (deep, pour deep learning, « apprentissage profond ») et à la manipulation (fake, qui signifie « faux ») : des contenus faux qui sont rendus profondément crédibles par l’IA. Depuis leur apparition en 2017, ces manipulations numériques mettent un visage sur un autre, transforment les voix ou font parler les morts.

Les deux se combinent : il devient alors possible de faire dire et faire faire n’importe quoi à n’importe qui. Cette innovation peut être employée pour la propagande ou le terrorisme. La diffusion de deepfakes représente aujourd’hui un enjeu majeur à la société : par leur ultra-réalisme, il devient de plus en plus difficile de différencier le vrai du faux. Dans ce documentaire, des intellectuels s’interrogent sur les périls et le bénéfice positif de ces technologies en pleine développement.

Les deepfakes posent, en effet, un défi technologique de détection. Pour le site Internet The Conversation France, Divina Frau-Meigs, Professeur des sciences de l’information et de la communication, a rédigé un article sur les enjeux autour des deepfakes, ces manipulations de vidéos basées sur l’intelligence artificielle. Elle constate l’arrivée du deepfake audio. Maintenant, la manipulation audio synthétisée par l’IA est possible grâce aux progrès des algorithmes de synthèse vocale et de clonage de voix permettant de créer une fausse voix, difficile à distinguer de la parole authentique d’une personne. L’évolution rapide des méthodes d’apprentissage profond (Deep Learning), en particulier les réseaux antagonistes génératifs (GAN) a favorisé son perfectionnement. La mise à disposition de ces technologies à bas coût au grand public, a rendu possible la conversion du texte en son ou la conversion vocale profonde. Les vocodeurs neuronaux actuels peuvent, en effet, produire des voix synthétiques qui imitent la voix humaine en respectant le timbre (phonation) et la prosodie (accentuation, amplitude…)

Les deepfakes sonores sont très efficaces car ils bénéficient des progrès spectaculaires de la psychoacoustique, l’étude de la perception des sons par l’être humain, notamment en matière de cognition.

Le développement de deepfakes audio peut entraîner de multiples risques, notamment la diffusion de fausses informations et de « fake news », l’usurpation d’identité, l’atteinte à la vie privée et l’altération malveillante de contenus. Plus difficiles à détecter que les deepfakes vidéo, les deepfakes audio sont moins chers et plus rapides à produire.

Néanmoins, plusieurs solutions techniques sont possibles pour identifier les différents types d’usurpation audio. Certaines mesurent les segments silencieux de chaque signal de parole et repèrent les fréquences plus ou moins élevées afin de localiser les manipulations. D’autres entraînent des IA pour qu’elles différencient des échantillons authentiques naturels d’échantillons synthétiques. Toutefois, ces solutions n’arrivent pas à résoudre totalement la question de la détection de la parole synthétique.

Cette détection représente encore un défi car les manipulateurs essaient de supprimer leurs traces de contrefaçon avec des générateurs de deepfake audio de plus en plus sophistiqués.

Les plates-formes de médias sociaux qui amplifient la portée de ces deepfakes par leurs algorithmes de recommandation doivent suivre le nouveau Code de pratique de l’UE en matière de désinformation. Renforcé en juin 2022, il interdit les deepfakes et oblige les plates-formes à employer leurs outils (modération, déplatformisation…) pour le garantir.

De l’IA aux empires médiatiques

Parmi les sujets abordés par l’univers médiatique, l’Intelligence Artificielle occupe une place importante. En juillet dernier, CMA Media, le pôle média du Groupe CMA CGM, a organisé ces premières Rencontres Internationales des Médias. Le but de cet événement : présenter les grands défis de transformation des médias et ses acteurs. Lors de cette journée exceptionnelle, CMA Media a rassemblé les professionnels des médias, les entreprises et les acteurs de l’information afin d’échanger sur les nouveaux modèles économiques des médias. Un des débats a été consacré à l’intelligence artificielle. Antoine Bayet, Directeur éditorial de l’Institut national de l’audiovisuel (INA) Nathalie Sonnac, Professeur en Sciences de l’information et de la communication et Séverine Grégoire, Head of Start-Ups Hub CMA CGM ont participé à cet échange animé par Philippe Mabille, Directeur de la rédaction de La Tribune, voici une séquence vidéo sur YouTube :

Les groupes médiatiques connaissent des soubresauts. La série documentaire de CNN « L’empire Murdoch : Politique, Trahisons & Succession » retrace l’histoire de la dynastie médiatique anglo-saxonne pour la succession du magnat Rupert Murdoch. Elle raconte en 7 épisodes comment Rupert Murdoch est devenu l’une des personnes les plus puissantes et influentes du monde. Cette série s’appuie sur des investigations exclusives du célèbre New York Times et sur des témoignages de biographes, de personnalités politiques et de commentateurs. D’ailleurs, l’histoire étonnante du clan Murdoch a inspiré la série télévisée multi-récompensée de HBO, « Succession ». Voici la bande-annonce de la série documentaire :