Publié le: 12/05/2026 @ 16:47:36: Par Nic007 Dans "Sécurité"
Pour la première fois, Google a détecté et bloqué une faille zero-day exploitée grâce à l'intelligence artificielle . Il ne s'agit ni de science-fiction, ni d'une simple hypothèse : c'est ce que le Google Threat Intelligence Group (GTIG) a documenté dans un rapport récemment publié , et les implications pour les professionnels de la sécurité numérique sont loin d'être négligeables. L'objectif de l'attaque était de contourner l'authentification à deux facteurs d'un outil d'administration web open source non identifié. D'après les chercheurs, il s'agissait d'une opération d'exploitation massive planifiée , et non d'une attaque ciblée sur une seule cible. Comment les chercheurs de Google ont-ils découvert que l'IA était à l'origine de la faille ? En analysant le code. Dans le script Python utilisé pour l'exploitation de la vulnérabilité, ils ont trouvé deux indices révélateurs : un score CVSS « faussé » (une valeur de gravité de la vulnérabilité générée incorrectement, mais vraisemblablement par l'IA) et une mise en forme structurée et didactique , typique des textes produits par de grands modèles de langage. Ce n'est pas le genre de code qu'un être humain écrit à la hâte : il est ordonné, presque scolaire, et cela a trahi ses origines.La vulnérabilité exploitée était une faille logique de haut niveau : le développeur de la plateforme avait intégré une hypothèse de confiance dans le système d’authentification à deux facteurs, et quelqu’un, grâce à l’IA, a trouvé un moyen de l’exploiter. Google précise que Gemini n’était pas le modèle utilisé pour développer cette faille. Cet épisode s'inscrit dans un contexte plus large : il y a quelques semaines, nous avons parlé de Claude Mythos d'Anthropic , le modèle d'IA conçu pour trouver les failles de sécurité, et de la façon dont des outils similaires redessinent le paysage des cybermenaces. Le rapport du GTIG décrit également d'autres techniques émergentes : les criminels utilisent le « jailbreak piloté par personae », où l'IA est entraînée à se faire passer pour un expert en sécurité afin de les aider à trouver des vulnérabilités. Ils alimentent les modèles avec des archives complètes de données de vulnérabilité. Ils utilisent des outils comme OpenClaw pour perfectionner les charges utiles générées par l'IA dans des environnements contrôlés, ce qui accroît la fiabilité des attaques avant leur lancement. À propos d'OpenClaw, nous l'avons déjà évoqué en lien avec la monétisation de ces agents d'IA . Se pose ensuite la question de l'IA en tant que cible , et non plus seulement comme outil : le GTIG constate que les attaquants ciblent de plus en plus les composants qui rendent les systèmes d'IA utiles, tels que les compétences autonomes et les connecteurs aux données tierces. En pratique, plus l'IA s'intègre à nos systèmes, plus elle devient une surface d'attaque attrayante.
Liens
Lien (3 Clics)
Plus d'actualités dans cette catégorie 01-05SécuritéUn adolescent de 15 ans pirate des serveurs gouvernementaux. Fuite massive de données en France.
23-04SécuritéMicrosoft estime qu'un antivirus externe est inutile ; l'antivirus intégré est suffisant.
Poster un commentaireVous devez être identifié pour accéder à cette fonctionnalité