Accueil La cyber-sécurité Faire évoluer BeyondCorp avec des politiques de contrôle d’accès assistées par l’IA

Faire évoluer BeyondCorp avec des politiques de contrôle d’accès assistées par l’IA

0
Faire évoluer BeyondCorp avec des politiques de contrôle d’accès assistées par l’IA


En juillet 2023, quatre Googleurs des organisations Enterprise Security et Access Security ont développé un outil visant à révolutionner la façon dont les Googleurs interagissent avec les listes de contrôle d’accès : SpeakACL. Cet outil, récompensé par le Gold Prize lors du Security & AI Hackathon interne de Google, permet aux développeurs de créer ou de modifier des politiques de sécurité à l’aide d’instructions simples en anglais plutôt que d’avoir à apprendre la syntaxe spécifique au système ou des principes de sécurité complexes. Cela peut faire gagner du temps et des efforts aux équipes de sécurité et de produits, tout en contribuant à protéger les informations de leurs utilisateurs en encourageant la réduction des accès autorisés en adhérant au principe du moindre privilège.

Politiques de contrôle d’accès dans BeyondCorp

Google demande aux développeurs et aux propriétaires d’applications d’entreprise de définir leurs propres politiques de contrôle d’accès, comme décrit dans BeyondCorp : le proxy d’accès. Nous avons investi dans la réduction de la difficulté de création d’ACL en libre-service et de tests d’ACL afin d’encourager ces propriétaires de services à définir des politiques de contrôle d’accès de moindre privilège. Cependant, il reste difficile de traduire de manière concise leur intention dans un langage acceptable pour le moteur de contrôle d’accès. Une complexité supplémentaire est ajoutée par la variété des moteurs et des langages de définition de politiques correspondants qui ciblent différents domaines de contrôle d’accès (c’est-à-dire les sites Web, les réseaux, les serveurs RPC).

Pour mettre en œuvre correctement une politique de contrôle d’accès, les développeurs de services doivent apprendre divers langages de définition de politique et leur syntaxe associée, en plus de bien comprendre les concepts de sécurité. Comme cela prend du temps sur le travail principal des développeurs, ce n’est pas l’utilisation la plus efficace du temps des développeurs. Une solution était nécessaire pour supprimer ces défis afin que les développeurs puissent se concentrer sur la création d’outils et de produits innovants.

Le faire fonctionner

Nous avons construit un prototype d’interface pour définir et modifier de manière interactive les politiques de contrôle d’accès pour le Moteur de contrôle d’accès BeyondCorp en utilisant le grand modèle de langage (LLM) PaLM 2. en utilisant le grand modèle de langage (LLM) PaLM 2. Nous avons utilisé Google Colab pour fournir au modèle un ensemble de données diversifié et hautement variable utilisant l’apprentissage et le réglage en contexte. L’apprentissage en contexte permet au modèle d’apprendre à partir d’un ensemble de données d’exemples pertinents pour la tâche à accomplir, que nous avons fourni via un apprentissage en quelques étapes. Le réglage fin permet d’adapter le modèle à une tâche spécifique en ajustant ses paramètres. Le réglage du modèle avec un ensemble de données étiquetées diversifiées que nous avons organisées pour cette tâche nous a permis d’améliorer sa capacité à générer des ACL qui sont à la fois syntaxiquement précises et respectent le principe du moindre privilège.

Avec SpeakACL et d’autres outils tirant parti de l’IA en matière de sécurité, il est toujours recommandé d’adopter une approche conservatrice quant à l’autonomie que vous accordez à un agent IA. Pour garantir que les résultats de notre modèle sont corrects et sûrs à utiliser, nous avons combiné notre outil avec les protections existantes qui existent chez Google pour toutes les modifications des règles d’accès :

  • Évaluation automatisée des risques se produit sur la politique de sécurité proposée par Google.

  • Examen manuel par les ingénieurs de sécurité est effectuée sur les modifications qui ne sont pas évaluées comme présentant un faible risque afin de garantir la conformité aux politiques et directives de sécurité.

  • Linting, tests unitaires et tests d’intégration assurez-vous que la syntaxe du langage de contrôle d’accès est correcte et que la modification n’interrompt aucun accès attendu ni n’autorise un accès inattendu.


Regard vers l’avenir

Bien que les progrès de l’IA soient impressionnants, il est crucial que nous, en tant qu’industrie, continuions à donner la priorité à la sécurité lorsque nous naviguons dans le paysage. Outre l’ajout de contrôles pour vérifier syntaxiquement et sémantiquement les politiques d’accès produites par notre modèle, nous avons également conçu des protections contre la divulgation d’informations sensibles, les fuites de données, les injections rapides et les vulnérabilités de la chaîne d’approvisionnement pour garantir que notre modèle fonctionne au plus haut niveau de sécurité.

SpeakACL est un outil de génération d’ACL qui a le potentiel de révolutionner la façon dont les politiques d’accès sont créées et gérées. L’efficacité, la sécurité et la facilité d’utilisation obtenues par ce moteur de génération d’ACL basé sur l’IA reflètent l’engagement continu de Google à tirer parti de l’IA dans tous les domaines pour développer des produits et une infrastructure de pointe.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici