Publié le: 27/09/2019 @ 19:24:40: Par Nic007 Dans "Google"
GoogleGoogle a rendu publiques des milliers de vidéos dites deepfake, dont les trucages hyper-réalistes font dire ou faire des choses à des personnes, afin de permettre aux chercheurs de travailler à l’identification de ces contenus potentiellement dangereux. Cet ensemble de vidéos, les vraies et les fausses, peut désormais être exploité par les chercheurs pour « développer des méthodes de détection de vidéos manipulées ». Les technologies dites d’intelligence artificielle (IA), fondées sur l’apprentissage automatisé des ordinateurs à partir de gros volumes de données, ont permis de mettre au point des applications désormais utilisées au quotidien, comme les assistants vocaux ou les diagnostics médicaux.

Mais certaines applications de l’IA ont défrayé la chronique, comme les applis pour smartphone qui servaient à « déshabiller » des personnes. « Même si de nombreuses vidéos deepfake sont conçues à des fins humoristiques, d’autres pourraient nuire à des individus ou à la société », soulignent Nick Dufour de Google, et Andrew Gully de Jigsaw, une filiale de recherche d’Alphabet, la maison-mère de Google. De nombreuses autorités de régulation et associations s’inquiètent notamment de possibles répercussions sur des scrutins politiques, dans le cas où des vidéos truquées de personnalités politiques viendraient perturber la campagne.
Poster un commentaire
Vous ne pouvez plus poster de commentaire sur cette actualité car elle a été clôturée. Voulez-vous continuer cette discussion sur le forum?

Informaticien.be - © 2002-2024 AkretioSPRL  - Generated via Kelare
The Akretio Network: Akretio - Freedelity - KelCommerce - Votre publicité sur informaticien.be ?