Accueil Big Data Snowflake dévoile Cortex, un service géré pour créer des applications LLM dans le cloud de données

Snowflake dévoile Cortex, un service géré pour créer des applications LLM dans le cloud de données

0
Snowflake dévoile Cortex, un service géré pour créer des applications LLM dans le cloud de données


VentureBeat présente : AI Unleashed – Un événement exécutif exclusif pour les leaders des données d’entreprise. Réseautez et apprenez avec vos pairs du secteur. Apprendre encore plus


Aujourd’hui, la société de stockage de données en tant que service et de cloud basée dans le Montana Flocon de neige a annoncé Cortex, un service entièrement géré qui apporte la puissance des grands modèles de langage (LLM) dans son cloud de données.

Dévoilé lors du congrès annuel de l’entreprise Jour de neige événement, Cortex fournit aux entreprises utilisant le cloud de données Snowflake une suite de blocs de construction d’IA, y compris des LLM open source, pour analyser les données et créer des applications ciblant différents cas d’utilisation spécifiques à l’entreprise.

« Avec Snowflake Cortex, les entreprises peuvent désormais exploiter… des modèles de langage étendus en quelques secondes, créer des applications personnalisées basées sur LLM en quelques minutes et conserver la flexibilité et le contrôle de leurs données, tout en réimaginant la manière dont tous les utilisateurs exploitent leurs données. IA générative pour apporter de la valeur commerciale », a déclaré Sridhar Ramaswamy, vice-président directeur de l’IA chez Snowflake, dans un communiqué.

L’offre est aujourd’hui en version préliminaire privée et est livrée avec un ensemble de modèles spécifiques à des tâches, conçus pour rationaliser certaines fonctions au sein du cloud de données. Snowflake l’utilise également pour trois de ses outils gen AI : Snowflake copilot, Universal search et Document AI.

Événement

L’IA libérée

Une soirée exclusive d’informations et de réseautage sur invitation uniquement, conçue pour les cadres supérieurs d’entreprise supervisant les piles de données et les stratégies.

Apprendre encore plus

Créer des applications LLM avec Cortex

Aujourd’hui, les entreprises souhaitent adopter l’IA générative, mais étant donné les contraintes associées à la technologie, notamment le besoin de talents en IA et la gestion complexe de l’infrastructure GPU, nombre d’entre elles ont du mal à mettre leurs applications en production. Snowflake Cortex vise à rationaliser l’ensemble de ce processus.

Le service fournit aux utilisateurs un ensemble de fonctions d’IA spécialisées et à usage général sans serveur. Les utilisateurs peuvent accéder à ces fonctions avec un appel en code SQL ou Python et commencer leur parcours vers des cas d’utilisation fonctionnels de l’IA, le tout fonctionnant sur l’infrastructure à coûts optimisés de Cortex.

Cortex de flocon de neige
Architecture du Cortex en flocon de neige

Les fonctions spécialisées exploitent des modèles de langage et d’apprentissage automatique pour permettre aux utilisateurs d’accélérer des tâches analytiques spécifiques grâce à des entrées en langage naturel. Par exemple, les modèles peuvent extraire des réponses, résumer ces informations ou les traduire dans une autre langue. Dans d’autres cas, ils peuvent aider à établir une prévision basée sur des données ou à détecter des anomalies.

Pendant ce temps, les fonctions à usage général constituent une option plus large que les développeurs peuvent exploiter. Ils couvrent une variété de modèles, directement issus de LLM open source tels que Lama 2 aux modèles propriétaires de Snowflake, y compris celui permettant de convertir les entrées de texte en SQL pour interroger des données.

Plus important encore, ces fonctions à usage général sont également dotées de capacités d’intégration de vecteurs et de recherche qui permettent aux utilisateurs de contextualiser facilement les réponses du modèle en fonction de leurs données et de créer des applications personnalisées ciblant différents cas d’utilisation. Cet aspect est traité avec Rationalisé dans Flocon de neige.

« C’est formidable pour nos utilisateurs car ils n’ont pas à effectuer de provisioning », a déclaré Ramaswamy, fondateur de Neeva, la société d’IA acquise par Snowflake il y a quelques mois, lors d’un point de presse. « Nous effectuons le provisionnement et le déploiement. C’est juste comme une API, similaire à ce que propose OpenAI mais construit directement dans Snowflake. Les données ne partent nulle part et elles s’accompagnent du type de garanties que nos clients souhaitent et exigent, à savoir que leurs données soient toujours isolées. Cela n’est jamais mêlé à un quelconque type de formation inter-clients. Il s’agit d’un environnement sûr, sécurisé et hautement compétitif.

Ramaswamy a ensuite souligné que l’offre ne nécessite pas de programmation approfondie. Les utilisateurs doivent simplement opérer dans l’environnement SQL pour faire avancer les choses.

Sur le plan des applications, il a déclaré que les utilisateurs peuvent facilement créer des chatbots conversationnels adaptés à leurs connaissances commerciales, comme un copilote formé spécifiquement au contenu d’aide.

Expériences LLM natives soutenues par Cortex

Alors que Cortex vient d’être annoncé pour une utilisation en entreprise, Snowflake utilise déjà le service pour améliorer les fonctionnalités de sa plateforme avec des expériences LLM natives. La société a lancé trois fonctionnalités basées sur Cortex en avant-première privée : Snowflake copilot, Universal Search et Documenter l’IA.

Le copilote fonctionne comme un assistant conversationnel pour les utilisateurs de la plateforme, leur permettant de poser des questions sur leurs données en texte brut, d’écrire des requêtes SQL sur des ensembles de données pertinents, d’affiner les requêtes et de filtrer les informations, et bien plus encore.

La recherche universelle intègre la fonctionnalité de recherche optimisée par LLM pour aider les utilisateurs à trouver et à commencer à tirer parti des données et des applications les plus pertinentes pour leurs cas d’utilisation.

Enfin, Document AI aide à extraire des informations (telles que les montants des factures ou les conditions contractuelles) à partir de documents non structurés hébergés dans le cloud de données Snowflake.

Notamment, des capacités similaires ont également été développées par d’autres acteurs du secteur des données, notamment Briques de donnéesqui a récemment lancé LakehouseIQ et est l’un des plus grands concurrents de Snowflake.

Informatica et Dremio ont également réalisé leurs jeux LLM respectifs, permettant aux entreprises de gérer leurs données ou de les interroger via des entrées en langage naturel.

Plus d’annonces à Snowday 2023

Au-delà de Cortex, Snowflake a annoncé l’amélioration de la prise en charge des tables Iceberg, permettant aux utilisateurs d’éliminer les silos et d’unir toutes leurs données dans le cloud de données, et d’ajouter de nouvelles fonctionnalités à sa solution de gouvernance Horizon.

Cela comprend la surveillance de la qualité des données, une nouvelle interface pour comprendre le traçage des données, une classification améliorée des données et un centre de confiance pour rationaliser la surveillance de la sécurité et de la conformité entre les cloud.

Enfin, la société a également annoncé le lancement d’un programme de financement qui prévoit d’investir jusqu’à 100 millions de dollars dans des startups en démarrage créant des applications natives Snowflake.

Le programme a été soutenu par sa propre branche de capital-risque ainsi que par plusieurs sociétés de capital-risque, notamment Altimeter Capital, Amplify Partners, Anthos Capital, Coatue, ICONIQ Growth, IVP, Madrona, Menlo Ventures et Redpoint Ventures.

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie et les transactions d’entreprise transformatrices. Découvrez nos Briefings.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici