Accueil La cyber-sécurité Google propose des primes de bug pour les vulnérabilités de sécurité de l’IA générative

Google propose des primes de bug pour les vulnérabilités de sécurité de l’IA générative

0
Google propose des primes de bug pour les vulnérabilités de sécurité de l’IA générative


Le programme Vulnerability Reward de Google offre jusqu’à 31 337 $ pour la découverte de dangers potentiels. Google rejoint OpenAI et Microsoft pour récompenser les chasses aux bogues de l’IA.

Logo Google au Googleplex Silicon Valley Mountain View en Californie.
Image : Markus Mainka/Adobe Stock

Google a étendu son programme Vulnerability Rewards pour inclure les bogues et les vulnérabilités pouvant être trouvées dans IA générative. Plus précisément, Google recherche des chasseurs de bugs pour sa propre IA générative, des produits tels que Google Bardelequel est disponible dans de nombreux paysou l’IA du centre de contact de Google Cloud, Agent Assist.

« Nous pensons que cela encouragera la recherche sur la sûreté et la sécurité de l’IA et mettra en lumière des problèmes potentiels qui rendront l’IA plus sûre pour tous », Laurie Richardson, vice-présidente de la confiance et de la sécurité de Google et Royal Hansen, vice-président de l’ingénierie de la confidentialité, de la sûreté et de la sécurité. a écrit dans un 26 octobre article de blog. « Nous élargissons également nos travaux de sécurité open source pour rendre les informations sur la sécurité de la chaîne d’approvisionnement de l’IA universellement détectables et vérifiables. »

Sauter à:

Programme de bug bounty de Google : limites et récompenses

Il existe des limites quant à ce qui constitue une vulnérabilité dans l’IA générative ; une liste complète des vulnérabilités que Google considère comme entrant ou non dans le champ d’application du programme Vulnerability Rewards se trouve dans ce blog de sécurité Google.

L’IA générative présente des risques que l’informatique traditionnelle ne présente pas ; Ces risques incluent des biais injustes, des manipulations de modèles et des interprétations erronées des données, ont écrit Richardson et Hansen. Notamment, les « hallucinations » de l’IA – des informations erronées générées au cours d’une session de navigation privée – ne comptent pas comme des vulnérabilités aux fins du programme de récompenses de vulnérabilité. Les attaques qui exposent des informations sensibles, modifient l’état du compte d’un utilisateur Google sans son consentement ou fournissent des portes dérobées vers un modèle d’IA génératif sont concernées.

En fin de compte, toute personne participant au bug bounty doit prouver que la vulnérabilité découverte pourrait « constituer un scénario d’attaque convaincant ou une voie réalisable pour Google ou nuire à l’utilisateur », selon le blog de sécurité de Google.

Récompenses possibles du bug bounty de Google AI

Les récompenses du programme Vulnerability Rewards vont de 100 $ à 31 337 $, selon le type de vulnérabilité. Les détails sur les récompenses et les paiements peuvent être trouvés sur Site des chasseurs de bogues de Google.

Autres bug bounties et types d’attaques courants dans l’IA générative

OpenAI, Microsoft et d’autres organisations proposent des bug bounties aux pirates informatiques qui découvrent des vulnérabilités dans les systèmes d’IA générative. Microsoft propose entre 2 000 et 15 000 dollars pour bugs de qualification. Le programme de bug bounty d’OpenAI donnera entre 200 et 20 000 dollars.

VOIR : Les chercheurs d’IBM X-Force ont découvert e-mails de phishing Les sites écrits par des personnes sont légèrement plus susceptibles d’obtenir des clics que ceux écrits par ChatGPT. (TechRépublique)

Dans un rapport du 26 octobre, HackerOne et OWASP ont constaté que le vulnérabilité la plus courante dans l’IA générative Il s’agissait d’une injection rapide (c’est-à-dire l’utilisation d’invites pour faire faire au modèle d’IA quelque chose qu’il n’était pas censé faire), suivie d’une gestion des sorties non sécurisée (c’est-à-dire lorsque la sortie LLM est acceptée sans examen minutieux) et de la manipulation des données d’entraînement.

Comment apprendre à utiliser l’IA générative

Les développeurs et les chercheurs en sécurité qui débutent avec l’IA générative disposent de nombreuses options pour apprendre à l’utiliser, depuis l’expérimentation d’applications gratuites telles que ChatGPT jusqu’à la participation à des cours professionnels. DeepLearning.AI propose des cours de niveaux débutant et avancé pour les professionnels qui souhaitent apprendre à utiliser et à développer l’intelligence artificielle et l’apprentissage automatique.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici