Craft LLMOps
Votre plateforme d'opérationnalisation de l'IA de confiance

La plateforme de MLOps & LLMOps de Craft AI contient tout ce qu'il faut à un ML Engineer ou un Data Scientist pour construire et opérationnaliser une application d'IA. De l'IA générative au Machine Learning, fine-tunez, déployez et pilotez la performance des modèles.
Divisez par 16 le temps nécessaire pour industrialiser vos IA.

Plateforme Craft AI

Le LLMOps au service des équipes de Data Science

Sans MLOps, l’industrialisation d’une application d’IA dure 7 mois en moyenne et coûte 500K€ par projet.
Avec une plateforme MLOps, opérationnalisez vos IA en quelques jours seulement.

Déployez vos modèles de ML & vos LLM

Streaming, Real-time, Batch
A/B Testing, Canary

Passez vos modèles à l’échelle

Construisez des IA robustes et utilisées massivement

Pilotez et expliquez vos modèles et LLM

Dérive, Métriques, Toxicité, Biais, Évaluation, Alertes

Déployez et montez des infrastructures

En quelques clics, sans compétence de DevOps

Découvrir la plateforme

Notre plateforme à la loupe

Pipeline de Machine Learning

Développez vos modèles dans un espace de travail compatible avec l’intégralité des librairies open-source. Importez et fine-tunez vos LLM dans des pipelines dédiés ou créez des workflows de RAG. Identifiez les étapes clés de votre code. Assemblez-les au sein de pipelines complets allant de la préparation des données jusqu’à l’entraînement des modèles.

Le pipeline est versionable et facilement déployable. Notre technologie de conteneurisation assure son passage à l’échelle sans reprise de code.

Pipelines de Machine Learning -
Capture d'écran de la plateforme

Environnements (CPU / GPU)

Mettez en place en quelques clics des environnements composés de bases de données (vector database) et de serveurs de calcul (CPU & GPU). Paramétrez simplement la taille et la puissance de chaque composant. Pilotez en temps réel les coûts de chaque environnement. Construisez des environnements dédiés à l’expérimentation et à la production.

Les environnements sont aisément paramétrables par les Data Scientists sans compétence de DevOps. Pilotez et maîtrisez votre budget d’infrastructure avec un module de FinOps.

Déploiements

Déployez vos pipelines de Machine Learning en production en quelques clics. Créez un service permettant d’exposer le pipeline par API aux utilisateurs finaux en temps réel. Définissez des conditions d’exécutions (temporelles ou basées sur une métrique) afin d’automatiser les ré-entraînements. Redéployez vos pipelines avec de multiples méthodes : A/B testing, Canary, Shadowing, Failover.

Le déploiement s’effectue en quelques clics, sans compétence en DevOps. Il permet un gain de temps considérable et offre une autonomie totale aux Data Scientists.

Déploiements - Capture d'écran de la plateforme de MLOps

Suivi des exécutions

Obtenez le suivi détaillé de vos exécutions, étapes par étapes. Analysez le temps d’exécution de chaque étape ainsi que les ressources utilisées. Visualisez facilement les résultats et les modèles générés par vos pipelines. Retrouvez vos métriques de pipeline et le paramétrage de vos inputs & ouputs. Soyez alertés en cas de défaillance lors de l’exécution d’un pipeline pour procéder au débuggage.

Le suivi des exécutions permet aux Data Scientists de ne plus être à l’aveugle sur le suivi des exécutions et de s’assurer de leur bon fonctionnement.

Suivi des exécutions - Capture d'écran de la plateforme de MLOps

Pilotage des modèles

Surveillez en temps réel la performance de vos modèles en production. Évaluez la fiabilité de vos LLM (perte de contexte, dérive de l'exactitude, hallucinations ou altération du ton). Détectez automatiquement lorsque vos modèles dérives et perdent en précision. Déclenchez des ré-entraînements afin de corriger les dérives. Pilotez vos infrastructures et vos déploiements en surveillant leur bonne santé. Paramétrez des alertes pour réagir le plus rapidement possible en cas de problème.

L’outil de pilotage des modèles en production permet d’avoir une vue à 360° et en temps réel de la santé de vos applications d’IA.

Pilotages des modèles de ML - Capture d'écran de la plateforme de MLOps

Explicabilité (XAI)

Analysez le poids de chacune des variables explicatives dans la prédiction. Visualisez vos arbres de décision. Obtenez une explication locale ou globale, agnostique de l’algorithme utilisé avec Shap. Inspectez et analysez le comportement de chacune des variables explicatives ou prédites. Surveillez l’évolution de l’explicabilité même en production.
Expliquez et évaluez les capacités et les performances de vos LLM grâce à notre pipeline de monitoring des LLM présent dans la plateforme.

Grâce au module d’explicabilité des modèles, supprimez le fonctionnement “boîte noire” des algorithmes et gardez l’humain dans la boucle.

XAI - Capture d'écran de la plateforme de MLOps

Une plateforme compatible avec tout l’écosystème

Azure
Google Cloud
aws
scikit-lean
PyTorch
Tensor Flow
jupyter
Rust

Demander une démo

Une plateforme compatible avec tout l’écosystème

aws
Azure
Google Cloud
OVH Cloud
scikit-lean
PyTorch
Tensor Flow
XGBoost
jupyter
PC
Python
R
Rust
mongo DB

Get started !

Importez votre code

Depuis votre espace de travail individuel, récupérez votre code existant depuis un dépôt Github ou Gitlab et démarrez un nouveau projet de Data Science, seul ou en équipe. Exécutez simplement votre code sans vous soucier de la configuration du Dockerfile qui est intégrée nativement dans le pipeline.

Créez des pipelines

Construisez vos propres pipelines de Machine Learning en identifiant une série d’étapes pouvant aller de la préparation des données à l’entraînement des modèles. Vous pouvez, par exemple, importer un LLM open-source et réaliser un pipeline de fine-tuning pour spécialiser le LLM puis un pipeline d'inférence pour servir les résultats. Enregistrez et versionnez chaque pipeline dans la plateforme.

Exécutez les pipelines

Lancez l’exécution d’un pipeline directement dans l’espace de travail ou bien sur la plateforme pour disposer de ressources supplémentaires et d’avoir accès aux différentes fonctionnalités de suivi, de pilotage et d’explicabilité.

Déployez les pipelines en production

Une fois que le pipeline est validé, vous pouvez le déployer en production très facilement soit en l’exposant via un endpoint soit en définissant des règles d’exécution. De multiples méthodes de redéploiement sont également à votre disposition.

FAQ

Nous répondons aux questions les plus fréquentes que vous pouvez vous poser sur la plateforme de MLOps.

Voir toutes les questions

En quelle(s) langue(s) la plateforme est-elle disponible ?

La plateforme est disponible en langue anglaise dans un premier temps. Nous ajouterons progressivement un mode multi-langue permettant de paramétrer la langue de son choix.

Qu’est-ce que le MLOps et le LLMOps ?

Le MLOps est un ensemble de pratiques qui vise à déployer et maintenir des modèles de Machine Learning en production de manière fiable et efficace. Le LLMOps se base sur le MLOps et ajoute toutes les fonctionnalités permettant de spécialiser, opérationnaliser et piloter des LLM.

Que permet de faire la plateforme de MLOps ?

La plateforme, actuellement en version 1.1, permet de mettre en place des infrastructures de calcul et de stockage ainsi que de créer et de déployer des pipelines de Machine Learning, de fine-tuner, d'opérationnaliser et de piloter des LLM. C'est donc ce qu'on peut appeler une plateforme de MLOps et de LLMOps.

Comment fonctionne l’abonnement / la facturation de la plateforme ?

Vous payez un abonnement qui vous donne accès à toutes les fonctionnalités de la plateforme de MLOps, présentes et à venir. En plus de cela, vous serez facturés chaque mois en fonction de l’utilisation que vous faites des ressources de calcul et de stockage.

Comment rester informé de l’actualité de Craft AI ?

Suivez-nous sur les réseaux Linkedin & Twitter et rendez-vous régulièrement sur notre blog où nous publions régulièrement des articles sur l’intelligence artificielle.

Démarrez l’industrialisation de vos IA

Testez gratuitement notre plateforme de MLOps permettant d’accélérer le déploiement et le pilotage de modèles de Machine Learning et des LLM.

Tester gratuitement

Plateforme Craft AI