Google redéfinit la sécurité de l’IA : programme de récompenses jusqu’à 30 000 $
- Next News
- 7 oct. 2025
- 2 min de lecture
Lundi, Google a lancé un nouveau programme de récompenses ambitieux destiné à encourager experts et passionnés à découvrir les vulnérabilités dans ses produits d’intelligence artificielle, avec des primes pouvant atteindre 30 000 dollars.

Ce programme cible spécifiquement les faiblesses et comportements indésirables exploitables, tels que l’exécution de commandes non autorisées via Google Home, ou des attaques par injection d’instructions permettant l’extraction et la transmission de données sensibles à des tiers malveillants.
Google définit avec précision les vulnérabilités en IA (exploiter des grands modèles linguistiques ou des systèmes d’IA générative pour nuire ou contourner la sécurité), en donnant la priorité aux actions non autorisées qui causent des dommages directs aux utilisateurs ou à leurs données. Les exemples incluent l’ouverture de rideaux intelligents ou l’extinction des lumières par exploitation de failles.
Ces découvertes ont permis aux experts de gagner plus de 430 000 dollars ces deux dernières années, illustrant l’engagement de Google à impliquer les chercheurs en sécurité de l’IA dans le renforcement de ses produits contre tout abus potentiel.
Le programme prévoit un système de primes progressives : 20 000 $ pour la révélation d’actions nuisibles non autorisées dans les principaux produits (Recherche, Gemini, Gmail, Drive), tandis que les découvertes les plus marquantes peuvent porter la récompense totale à 30 000 $ en fonction de la qualité et de la nouveauté du rapport.
Des récompenses réduites sont accordées en cas de vulnérabilités dans des produits secondaires ou pour des violations moindres (ex. : vol de paramètres de modèles secrets). Google insiste aussi sur le signalement des problèmes liés au contenu via des canaux internes, afin d’assurer un diagnostic approfondi et une formation constante à la sécurité.
Cette initiative s’inscrit dans une démarche proactive pour répondre à la montée des menaces liées au développement rapide de l’IA, posant ainsi un nouveau standard de protection des utilisateurs et d’appui à la recherche avancée en cybersécurité.









Commentaires