Publié le: 27/09/2019 @ 19:24:40: Par Nic007  Dans "Google "
GoogleGoogle a rendu publiques des milliers de vidéos dites deepfake, dont les trucages hyper-réalistes font dire ou faire des choses à des personnes, afin de permettre aux chercheurs de travailler à l’identification de ces contenus potentiellement dangereux. Cet ensemble de vidéos, les vraies et les fausses, peut désormais être exploité par les chercheurs pour « développer des méthodes de détection de vidéos manipulées ». Les technologies dites d’intelligence artificielle (IA), fondées sur l’apprentissage automatisé des ordinateurs à partir de gros volumes de données, ont permis de mettre au point des applications désormais utilisées au quotidien, comme les assistants vocaux ou les diagnostics médicaux.

Mais certaines applications de l’IA ont défrayé la chronique, comme les applis pour smartphone qui servaient à « déshabiller » des personnes. « Même si de nombreuses vidéos deepfake sont conçues à des fins humoristiques, d’autres pourraient nuire à des individus ou à la société », soulignent Nick Dufour de Google, et Andrew Gully de Jigsaw, une filiale de recherche d’Alphabet, la maison-mère de Google. De nombreuses autorités de régulation et associations s’inquiètent notamment de possibles répercussions sur des scrutins politiques, dans le cas où des vidéos truquées de personnalités politiques viendraient perturber la campagne.
Poster un commentaire
Vous devez être identifié pour accéder à cette fonctionnalité

Utilisateur
Mot de passe
 
Publicité
Informaticien.be  - © 2002-2019 Akretio SPRL  - Generated via Kelare - Hosted by Verixi Internet Services
The Akretio Network: Akretio  - Freedelity  - KelCommerce  - Votre publicité sur informaticien.be ?