Et si votre prochain gros chèque venait de Google ? L’entreprise peut vous verser jusqu’à 20 000 dollars simplement parce que vous avez découvert un bug dans ses logiciels d’IA. Une belle façon de transformer vos talents en cybersécurité en trésor.
Pour Google, repérer une faille dans ses logiciels d’IA est important. L’entreprise préfère dépenser quelques milliers de dollars maintenant plutôt que de laisser une vulnérabilité entre de mauvaises mains. Parce que oui, certaines personnes malintentionnées pourraient s’en servir à des fins douteuses.
Aujourd’hui, cette stratégie est devenue une priorité pour toutes les grandes entreprises tech. Récompenser ceux qui trouvent les bugs, c’est une manière intelligente de se protéger.
Gagner de l’argent avec les bugs d’IA ? Pas aussi simple qu’il n’y paraît
Google vient de mettre à jour son programme de chasse aux bugs dans ses logiciels et produits d’IA. Il s’agit d’une extension du dispositif global de bug bounty déjà existant chez Google, lancé en 2023.
L’idée est de permettre à des chercheurs en sécurité, qu’ils soient professionnels ou amateurs, de signaler des vulnérabilités critiques. Cela avant que celles-ci ne soient exploitées à mauvais escient.
Bien sûr, si Google met autant d’argent sur la table, ce n’est pas par générosité. C’est avant tout pour éviter le pire. Car un bug dans un système d’IA peut entraîner le vol de données personnelles ou le contrôle d’appareils connectés. Elle peut même permettre d’exécuter des actions à distance sans autorisation.
Mais ne pensez pas que signaler une simple erreur d’IA, comme une hallucination de Gemini, suffit pour toucher une prime. Tous les bugs n’ont pas la même importance. Ce sont les failles les plus critiques, appelées « rogue actions » qui rapportent le plus. Et elles sont loin d’être faciles à détecter.
Pas la même récompense pour tout le monde
La récompense dépend directement de la gravité du bug trouvé dans les logiciels et produits d’IA de Google. Une faille très grave classée S1 peut rapporter le jackpot de 20 000 dollars. Dans le bas de l’échelle, une vulnérabilité de niveau A6 ne rapporte en revanche que 500 dollars.
Bien sûr, Google utilise une grille standard pour classer les failles. Puis un panel d’experts ajuste le montant final selon la qualité du rapport et d’autres critères.
Alors, comment reconnaître la gravité d’une faille ? Une S1 pourrait, selon Google, permettre d’injecter une commande qui pousse un appareil connecté (par exemple un Google Home) à exécuter une action sans autorisation.
À l’inverse, les bugs les moins dangereux dans les logiciels d’IA consistent plutôt en des perturbations de service entre utilisateurs. Cela sans accès direct aux comptes.
Google rappelle toutefois que les tests doivent rester éthiques. Il est interdit de nuire à d’autres comptes ou de lancer des attaques massives pour bloquer un service. Les chercheurs doivent suivre le cadre et signaler proprement leurs découvertes.
- Partager l'article :