Le phénomène du «deep fake», qui avec l'intelligence artificielle, utilise le visage d'une personne et le transpose sur une scène pornographique par exemple, est en constante augmentation et fait d'importants dommages collatéraux.
Les victimes, pour la très grande majorité des femmes, en sont traumatisées. La vidéo ou la photo hyper truquée est si bien exécutée que c'est (trop souvent) à s'y méprendre.
Une étude publiée dans le New York Times dévoile que près de 99% des vidéos hyper truquées ciblaient des femmes et des jeunes filles.
«C'est une arme de destruction massive», note Léa Clermont-Dion, un phénomène absolument terrifiant.
Écoutez Léa Clermont-Dion autrice, réalisatrice et documentariste au micro de Patrick Lagacé sur les dangers inhérents au phénomène du «deep fake».
«Ces images-là peuvent être récupérées par des sites pornographiques. Donc, on dit dans l'étude que sept sites de porno sur dix proposent du contenu, des fakes, donc d'innocentes personnes qui n'ont jamais donné leur consentement pour être là-dessus. Parfois, c'est de la pornographie juvénile. Et un outil sur trois de deep fakes présente de la porno. Puis, ce qui m'a scandalisée, c'est aussi de constater que Google réfère, donc quand tu fais des recherches pour, par exemple, de la pornographie ou autre, il te réfère à ces sites-là de deep fakes et ils sont conscients d'ailleurs à Google de ce phénomène-là. On les a questionnés notamment au Sénat américain, mais leur réponse est: ”on fait notre possible”.