- Fonctionnalités
- Pricing

Voici la vérité dérangeante : la plupart des entreprises n'ont pas de problème d'IA. Elles ont un problème de livraison déguisé en problème d'IA.
Le projet de recherche NANDA du MIT a été largement cité pour une statistique brutale : environ 95 % des projets pilotes d'IA générative des entreprises ne parviennent pas à produire un impact ou un retour sur investissement mesurable, tandis que seulement 5 % environ aboutissent à des résultats significatifs. (Yahoo Finance) Les modèles sont impressionnants. Les démonstrations sont éblouissantes. Les budgets sont réels. Et pourtant, les résultats survivent rarement au contact avec les processus de production.
Si vous dirigez une initiative en matière d'IA, ce chiffre ne doit pas vous décourager. Il doit vous inciter à vous concentrer.
Car les « 5 % » ne sont pas nécessairement les entreprises qui dépensent le plus en GPU, qui ont le chatbot le plus flashy ou qui font le plus de bruit autour de leur nouvelle image de marque axée sur l'IA. Les 5 % sont ceux qui traitent l'IA comme n'importe quelle autre capacité de production : versionnée, testée, observable, sécurisée et reproductible. Ils construisent des systèmes où l'IA peut être évaluée par rapport à des données réelles, dans des environnements réels, avec une gouvernance réelle. Ils relient les projets pilotes aux processus, et non aux diapositives. Et ils cessent de confondre expérimentation et livraison.
C'est là que commence l'histoire de l'IA chez Upsun.
Nous ne sommes pas là pour vendre du rêve. Nous sommes là pour aider les équipes à livrer. Nous sommes là pour vous aider à mettre en production votre preuve de concept (PoC) de manière fiable.
Notre stratégie est simple : nous concentrons nos efforts sur l'aide à nos clients dans les trois domaines où les résultats de l'IA sont gagnés ou perdus.
Si vous voulez faire partie des 5 % qui réussissent, vous n'avez pas besoin de plus de théâtre IA. Vous avez besoin d'un meilleur cheminement entre l'idée et la production.
Répondons tout de suite à la question qui nous est posée.
« Où sont les GPU ? »
Nous ne proposons pas d'infrastructure GPU dans Upsun aujourd'hui, et c'est intentionnel.
La plupart des entreprises avec lesquelles nous discutons ne forment pas de modèles de base. Elles n'utilisent pas de flottes d'inférence à grande échelle sur leur propre matériel. Elles développent des produits qui utilisent les meilleurs modèles de leur catégorie via des API et des services, puis intègrent ces capacités dans le contexte, la gouvernance et l'expérience utilisateur spécifiques à leur entreprise. Ce n'est pas un compromis. C'est le modèle dominant.
Ainsi, au lieu de créer un catalogue de GPU pour cocher une case (et gaspiller beaucoup de temps et de ressources), nous concentrons nos efforts là où cela aide la majorité des équipes à réussir : tout ce qui concerne le modèle.
Car les modèles ne sont plus la partie la plus difficile. Le plus difficile est de faire en sorte que les fonctionnalités d'IA se comportent comme des logiciels de production.
Lorsque les initiatives d'IA stagnent, c'est rarement parce que « le modèle n'était pas assez intelligent ». Le plus souvent, c'est parce que le système autour du modèle n'était pas conçu pour :
En d'autres termes, les équipes réussissent ou échouent selon que les plateformes les aident ou les pénalisent.
La thèse d'Upsun est que les charges de travail de l'IA ressemblent aux applications modernes : elles couvrent plusieurs services, évoluent rapidement et doivent être gérées comme tout le reste. C'est exactement ce dans quoi une plateforme d'applications cloud devrait exceller.
L'IA a un effet curieux sur les stacks technologiques : elle les rend plus diversifiées, et non moins.
Une équipe peut livrer une API Node.js, un service de récupération Python, un worker en arrière-plan pour le traitement de documents et une petite interface d'administration PHP, le tout dans le même produit. Une autre équipe peut avoir une application .NET qui appelle des API de modèle, avec un microservice Python pour les harnais d'évaluation et les tâches par lots. L'IA multiplie ce « code de liaison », et le code de liaison apparaît dans n'importe quel langage qui a du sens.
C'est pourquoi la flexibilité d'exécution est importante.
Upsun est conçu pour prendre en charge les environnements d'exécution courants et moins courants dans tous les langages et frameworks, avec une configuration basée sur Git et des flux de déploiement prévisibles. Cela signifie que les équipes d'IA peuvent choisir l'outil adapté à chaque partie du système sans avoir à demander des exceptions à l'équipe interne chargée de la plateforme ou à attendre des mois pour obtenir un environnement d'exécution sur mesure.
C'est également pourquoi l'approche « centrée sur l'API » est importante. Les produits d'IA sont des produits API. Ils s'intègrent aux fournisseurs de modèles, aux sources de données, aux stacks d'observabilité, aux files d'attente et aux services internes. Une plateforme qui rend les intégrations difficiles tuera discrètement l'élan de l'IA.
Si nous devions choisir une seule raison pour laquelle les projets d'IA échouent en production, ce serait celle-ci :
les équipes ne testent pas le comportement de l'IA dans des conditions similaires à celles de la production.
Elles testent les invites dans un cahier. Elles testent un petit ensemble de données. Elles testent avec des entrées « happy path ». Ensuite, elles livrent le produit, croisent les doigts et espèrent que tout se passera bien.
Cette approche échoue pour les logiciels normaux. Avec l'IA, elle échoue plus rapidement et plus bruyamment, car les cas limites sont le produit. De petites anomalies dans les données, des différences de formatage, des champs manquants ou un contexte obsolète peuvent bouleverser les résultats. Les évaluations qui semblent excellentes dans un environnement contrôlé peuvent s'effondrer lorsqu'elles sont exposées à la réalité chaotique des utilisateurs réels.
Notre plateforme pour l'IA commence donc par les environnements.
L'approche Git d'Upsun permet aux équipes de créer des environnements isolés par branche, avec un suivi et une gestion des versions de la configuration. En associant cela à des processus de données similaires à ceux de la production (y compris des modèles de clonage et de nettoyage le cas échéant), les équipes peuvent valider les fonctionnalités de l'IA dans des conditions réalistes avant qu'elles ne soient mises à la disposition des utilisateurs.
Il ne s'agit pas seulement d'exactitude. Il s'agit de confiance.
Les fonctionnalités d'IA sont intrinsèquement probabilistes. Vous ne pouvez pas éliminer l'incertitude, mais vous pouvez éliminer les conjectures quant au comportement de votre système en développement, en préproduction et en production.
C'est ainsi que les équipes passent de « cela semble correct » à « nous pouvons commercialiser ce produit ».
La plupart des risques liés à l'IA ne sont pas liés à « Skynet ». Ils sont opérationnels.
Il ne s'agit pas là d'échecs exceptionnels. Ce sont des échecs de livraison basiques.
La meilleure réduction des risques consiste à mettre en place une infrastructure hygiénique : environnements isolés, gestion des secrets, limites de service claires et configuration prévisible. Si votre plateforme facilite ces opérations, l'IA devient automatiquement plus sûre.
C'est le type de « prise en charge de l'IA » qui importe pour la plupart des équipes. Pas une case à cocher pour le GPU. Un système qui rend la livraison de l'IA fiable.
Il existe une autre tendance qui peut facilement être mal comprise.
Le développement augmenté par l'IA ne se limite pas à la saisie automatique.
Oui, les assistants de code dans les IDE sont utiles. Mais le changement le plus important est que les processus de développement deviennent entièrement assistés par des agents. Les gens utilisent l'IA pour raisonner sur les architectures, générer des échafaudages, écrire des tests, mettre à jour des configurations, trier des journaux et proposer des corrections.
Si vous voulez une description simple pour les parties prenantes non techniques, le « vibe coding » (codage intuitif) rend bien l'idée, mais pas la réalité. Les équipes réelles ont toujours besoin de rigueur : révisions, garde-fous, reproductibilité et responsabilité.
Nous posons donc une question différente :
Comment faire d'Upsun une plateforme que les agents IA peuvent utiliser de manière sûre et efficace, tout en conservant les humains au premier plan ?
Les équipes ne se contentent plus de lire les documents. Leurs outils les lisent.
Cela change la signification de « bonne documentation ». Il ne suffit plus d'avoir des pages qui ont l'air jolies. Les documents doivent être structurés, cohérents et exploitables par les machines, afin que les assistants puissent récupérer les bonnes informations sans halluciner.
C'est pourquoi nous investissons dans :
Ces détails peuvent sembler insignifiants. Ils ne le sont pas.
Dans un processus augmenté par l'IA, les mauvais documents ne ralentissent pas seulement les humains. Les mauvais documents deviennent de mauvais résultats à grande échelle.
À mesure que les processus agentifs mûrissent, les développeurs attendront des assistants qu'ils fassent plus que simplement écrire du code. Ils attendront des agents qu'ils comprennent la plateforme sur laquelle ils sont déployés.
C'est là que le MCP (Model Context Protocol) devient intéressant.
Grâce à l'intégration de type MCP, un assistant IA peut récupérer le contexte officiel de la plateforme : schémas de configuration, meilleures pratiques, détails de l'environnement et contraintes opérationnelles. Au lieu de deviner comment structurer un fichier de configuration ou comment relier les services entre eux, l'assistant peut interroger la source de vérité.
La direction prise par Upsun est claire : offrir aux clients des options MCP qui réduisent les frictions et augmentent la précision.
Cela inclut des idées telles que :
Le principe est plus important que n'importe quelle implémentation individuelle : nous voulons que les clients passent moins de temps à se battre avec les outils et plus de temps à livrer.
Si vous développez des fonctionnalités d'IA qui vont au-delà d'un chatbot, vous finirez par avoir besoin d'un système de recherche. Vous avez besoin d'un endroit où stocker les intégrations, effectuer des recherches par similarité et joindre des métadonnées et des filtres du monde réel afin que votre application puisse récupérer le bon contexte au bon moment. En d'autres termes, vous avez besoin d'une base de données vectorielle ou d'une couche de données compatible avec les vecteurs.
Upsun prend en charge ce processus de manière pragmatique.
Si vous souhaitez disposer d'un magasin vectoriel dédié, vous pouvez exécuter Chroma dans le cadre d'un projet multi-applications sur Upsun. Chroma est une base de données vectorielles open source populaire, conçue pour les applications IA qui ont besoin de stocker, d'interroger et de gérer efficacement les intégrations, et décrit comment la configurer en tant qu'application Python avec un stockage persistant sur l'ensemble des déploiements.
Vous pouvez également exécuter Qdrant, un moteur de recherche de similarité vectorielle et une base de données vectorielle conçus pour les cas d'utilisation impliquant une correspondance sémantique et un filtrage intensif. Là encore, Upsun prend en charge son exécution en tant qu'application autonome dans un projet multi-applications, en le gardant isolé, configurable et persistant d'un déploiement à l'autre.
Cela est important pour le développement augmenté par l'IA, car la récupération n'est pas quelque chose que vous validez en lisant le code. Vous la validez de manière empirique :
Les environnements basés sur des branches permettent de tester ces questions. Votre agent IA peut créer un environnement à partir d'une branche, exécuter l'ingestion sur un ensemble de données cloné, évaluer la qualité de la récupération et vous fournir des preuves, et non des impressions. C'est la différence entre « prêt pour la démo » et « prêt pour la production ».
Les processus IA ont également tendance à briser l'hypothèse « un runtime par application ».
Un modèle très courant se présente comme suit :
L'image composable d'Upsun est spécialement conçue pour répondre à cette réalité. Elle vous permet d'installer plusieurs environnements d'exécution et outils dans votre conteneur d'application, et elle est basée sur Nix, ce qui signifie que vous pouvez puiser dans un très vaste écosystème de paquets et conserver des builds déterministes et reproductibles.
Tout aussi important, l'image composable d'Upsun est explicitement conçue pour plusieurs environnements d'exécution dans un seul conteneur d'application. Dans une image composable, vous pouvez ajouter plusieurs environnements d'exécution à un seul conteneur d'application via la configuration, de sorte que votre API Node et votre worker Python peuvent coexister sans avoir à inventer un processus de compilation fragile à partir de zéro.
Comme elle est basée sur la configuration, elle est également compatible avec l'IA. Votre assistant peut proposer des modifications à la configuration exacte qui définit la manière dont votre environnement est construit, et pas seulement au code qui suppose que le runtime existe comme par magie.
Upsun prend également en charge les détails pratiques sur lesquels les équipes se coincent toujours :
Et si votre approche vectorielle s'appuie sur Postgres pour certaines parties de la stack, Upsun prend en charge l'activation des extensions PostgreSQL via la configuration, plutôt que par des étapes opérationnelles manuelles. Upsun documente l'activation des extensions sous configuration.extensions dans .upsun/config.yaml et précise que les extensions doivent provenir de la liste prise en charge.
Assemblez ces éléments et la philosophie devient claire :
C'est ainsi que devrait être le développement augmenté par l'IA : moins « regardez ce que le modèle a écrit », plus « voici l'environnement, les données, la couche de récupération et la preuve que cela fonctionne ».
La troisième partie de notre histoire avec l'IA est interne, mais elle se reflète dans l'expérience client.
Nous utilisons l'IA dans Upsun, mais nous sommes sélectifs. Nous ne sommes pas intéressés par « l'IA pour l'IA ». Nous ne voulons pas livrer un widget de chat générique, renommer l'entreprise et appeler cela une feuille de route.
Nous voulons appliquer l'IA là où elle élimine les véritables frictions.
Et nous voulons le faire d'une manière qui respecte une dure réalité : la plupart des projets pilotes d'IA échouent parce qu'ils ne sont jamais connectés au processus. (Computerworld)
Notre stratégie en matière d'IA commence donc par les obstacles au processus.
L'un des plus grands obstacles à l'intégration des plateformes modernes est la configuration.
Les nouveaux projets achoppent souvent au même stade : le développeur dispose du code, mais a besoin de la bonne configuration de plateforme pour le déployer correctement. Il doit choisir les paramètres d'exécution, définir les services, connecter les routes, définir les étapes de construction, gérer les variables d'environnement, etc.
C'est exactement le type de tâche pour lequel l'IA est efficace, si vous la limitez correctement.
Notre première étape a consisté à utiliser l'IA pour aider les clients à créer des fichiers de configuration. Cela ne signifie pas « laisser libre cours à l'imagination et espérer que ça marche ». Il s'agit plutôt d'une génération guidée, fondée sur le schéma de la plateforme, avec validation et révision humaine.
C'est un exemple parfait de « l'utilisation judicieuse de l'IA ».
Vous n'avez pas besoin d'un chatbot pour cela. Vous avez besoin d'un assistant qui comprend les règles de votre plateforme.
La génération de configurations nous a appris quelque chose d'important :
l'IA est plus utile lorsqu'elle est associée à des contraintes, à un contexte et à une boucle de rétroaction étroite.
Lorsque vous donnez au modèle une structure (schémas), un contexte faisant autorité (documents) et une validation (vérifications CI ou validation de la plateforme), vous obtenez des résultats nettement plus fiables que ceux obtenus uniquement grâce à l'« ingénierie des invites ».
Cette leçon va au-delà de la configuration.
Elle s'applique à :
En d'autres termes, les meilleures fonctionnalités IA d'un produit ressemblent moins à une conversation qu'à une automatisation intelligente.
Une fois que vous pouvez générer une configuration en toute sécurité, la prochaine étape logique consiste à aider les clients à comprendre ce qui se passe après le déploiement.
C'est là que les capacités des agents peuvent apporter une réelle valeur ajoutée, en particulier lorsqu'elles sont associées à l'observabilité.
Imaginez un assistant capable de :
C'est la direction que nous prenons : une IA qui aide les clients à passer plus rapidement de « quelque chose ne fonctionne pas » à « c'est réparé et vérifié ».
Encore une fois, le but n'est pas de remplacer les ingénieurs. Le but est d'éliminer le travail d'investigation répétitif qui épuise les équipes et ralentit la livraison.
Le concept de « GenAI Divide » du MIT trouve un écho particulier, car il reflète ce que ressentent de nombreux dirigeants : l'adoption est élevée, mais la transformation est faible. (Yahoo Finance)
Cet écart ne se comble pas en achetant davantage d'outils. Il se comble en construisant de meilleurs systèmes.
Ainsi, lorsque Upsun utilise l'IA dans son produit, nous la traitons comme n'importe quelle autre fonctionnalité :
Si la réponse est non, il s'agit probablement d'une démonstration et non d'une fonctionnalité du produit.
Nous construisons une plateforme où le travail de l'IA n'est pas un projet spécial, mais un processus normal, reproductible et de qualité industrielle.
C'est ainsi que les clients cessent de vivre dans le purgatoire des projets pilotes.
Et c'est ainsi que les équipes commencent à se comporter comme les 5 % : non pas en recherchant la nouveauté, mais en maîtrisant l'exécution.
Car le véritable avantage concurrentiel à l'ère de l'IA n'est pas l'accès aux modèles. C'est la capacité à livrer, à apprendre et à s'améliorer plus rapidement que les autres, sans trahir la confiance.
Upsun existe pour faciliter cette boucle ennuyeuse mais puissante.
Pas de gadgets. Pas de changement de marque spectaculaire. Juste une plateforme qui vous aide à livrer vos produits.
Si vous développez des fonctionnalités d'IA et que vous souhaitez qu'elles survivent au-delà de la démonstration :
Join our monthly newsletter
Compliant and validated

