Accueil Cloud computing L’IA responsable repose sur la confidentialité

L’IA responsable repose sur la confidentialité

0
L’IA responsable repose sur la confidentialité


Il y a près de 40 ans, Cisco a contribué au développement d’Internet. Aujourd’hui, une grande partie d’Internet repose sur la technologie Cisco, ce qui témoigne de la confiance que les clients, les partenaires et les parties prenantes accordent à Cisco pour tout connecter en toute sécurité afin de rendre tout possible. Cette confiance n’est pas quelque chose que nous prenons à la légère. Et lorsqu’il s’agit d’IA, nous savons que la confiance est en jeu.

Dans mon rôle de directeur juridique de Cisco, je supervise notre organisation de protection de la vie privée. Dans notre plus récent Enquête sur la confidentialité des consommateursinterrogé auprès de plus de 2 600 personnes dans 12 zones géographiques, les consommateurs ont partagé à la fois leur optimisme quant au pouvoir de l’IA pour améliorer leur vie, mais aussi leur inquiétude quant à l’utilisation commerciale de l’IA aujourd’hui.

Je n’ai pas été surpris lorsque j’ai lu ces résultats ; ils reflètent mes conversations avec des employés, des clients, des partenaires, des décideurs politiques et des pairs du secteur à propos de ce moment remarquable. Le monde attend avec impatience de voir si les entreprises peuvent exploiter les promesses et le potentiel de l’IA générative de manière responsable.

Pour Cisco, les pratiques commerciales responsables sont au cœur de notre identité. Nous convenons que l’IA doit être sûre et sécurisée. C’est pourquoi nous avons été encouragés par l’appel à « des évaluations robustes, fiables, reproductibles et standardisées des systèmes d’IA » dans le décret du président Biden du 30 octobre. Chez Cisco, les évaluations d’impact sont depuis longtemps un outil important alors que nous travaillons à protéger et préserver la confiance des clients.

Évaluations d’impact chez Cisco

L’IA n’est pas nouvelle pour Cisco. Nous intégrons l’IA prédictive à notre portefeuille connecté depuis plus d’une décennie. Cela englobe un large éventail de cas d’utilisation, tels qu’une meilleure visibilité et une meilleure détection des anomalies dans les réseaux, des prévisions de menaces en matière de sécurité, des informations avancées sur la collaboration, une modélisation statistique et une référence en matière d’observabilité, ainsi qu’une prise en charge TAC basée sur l’IA dans l’expérience client.

À la base, l’IA concerne les données. Et si vous utilisez des données, la confidentialité est primordiale.

En 2015, nous avons créé un équipe dédiée à la confidentialité intégrer la confidentialité dès la conception comme élément central de nos méthodologies de développement. Cette équipe est chargée de réaliser des évaluations des facteurs relatifs à la vie privée (PIA) dans le cadre du Cycle de vie du développement sécurisé Cisco. Ces PIA constituent une étape obligatoire dans notre cycle de vie de développement de produits et dans nos processus informatiques et commerciaux. À moins qu’un produit ne soit examiné via une PIA, ce produit ne sera pas approuvé pour son lancement. De même, une application ne sera pas approuvée pour le déploiement dans notre environnement informatique d’entreprise à moins qu’elle n’ait fait l’objet d’une PIA. Et, après avoir réalisé une PIA de produit, nous créons une Fiche de données de confidentialité assurer la transparence aux clients et aux utilisateurs sur les pratiques en matière de données personnelles spécifiques aux produits.

À mesure que l’utilisation de l’IA devenait plus répandue et que ses implications devenaient plus inédites, il est devenu évident que nous devions nous appuyer sur nos fondements en matière de confidentialité pour développer un programme adapté aux risques et opportunités spécifiques associés à cette nouvelle technologie.

IA responsable chez Cisco

En 2018, conformément à notre politique en matière de droits de l’homme, nous avons publié notre engagement à respecter de manière proactive les droits de l’homme dans la conception, le développement et l’utilisation de l’IA. Compte tenu du rythme auquel l’IA se développait et des nombreux impacts inconnus, à la fois positifs et négatifs, sur les individus et les communautés du monde entier, il était important de décrire notre approche des questions de sécurité, de fiabilité, de transparence, d’équité, d’éthique et d’équité. .

Principes d'IA responsable de Cisco : transparence, équité, responsabilité, fiabilité, sécurité et confidentialitéNous avons formalisé cet engagement en 2022 avec Cisco Principes de l’IA responsable, documentant plus en détail notre position sur l’IA. Nous avons également publié notre Cadre d’IA responsable, pour opérationnaliser notre démarche. Cisco Cadre d’IA responsable s’aligne sur le Cadre de gestion des risques liés à l’IA du NIST et jette les bases de notre IA responsable (RAI) processus d’évaluation.

Nous utilisons l’évaluation dans deux cas, soit lorsque nos équipes d’ingénierie développent un produit ou une fonctionnalité alimentée par l’IA, soit lorsque Cisco engage un fournisseur tiers pour fournir des outils ou des services d’IA pour nos propres opérations internes.

Grâce au processus d’évaluation RAI, calqué sur le programme PIA de Cisco et développé par une équipe interfonctionnelle d’experts en la matière de Cisco, nos évaluateurs formés rassemblent des informations pour faire ressortir et atténuer les risques associés aux cas d’utilisation prévus – et surtout – imprévus pour chaque soumission. . Ces évaluations portent sur divers aspects de l’IA et du développement de produits, notamment le modèle, les données de formation, les réglages précis, les invites, les pratiques de confidentialité et les méthodologies de test. Le but ultime est d’identifier, de comprendre et d’atténuer tout problème lié à Principes RAI de Cisco – transparence, équité, responsabilité, fiabilité, sécurité et confidentialité.

Et, tout comme nous avons adapté et fait évoluer notre approche en matière de confidentialité au fil des années en fonction de l’évolution du paysage technologique, nous savons que nous devrons faire de même pour l’IA responsable. Les nouveaux cas d’utilisation et les nouvelles capacités de l’IA suscitent des réflexions presque quotidiennement. En effet, nous avons déjà adapté nos évaluations RAI pour refléter les normes, réglementations et innovations émergentes. Et, à bien des égards, nous reconnaissons que ce n’est qu’un début. Même si cela nécessite un certain niveau d’humilité et de volonté de s’adapter à mesure que nous continuons à apprendre, nous restons fermes sur notre position consistant à maintenir la confidentialité – et, en fin de compte, la confiance – au cœur de notre approche.

Partager:

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici