- Funktionen
- Pricing

Hier ist die unangenehme Wahrheit: Die meisten Unternehmen haben kein KI-Problem. Sie haben ein Lieferproblem, das sich als KI tarnt.
Die NANDA-Studie des MIT wird häufig wegen einer brutalen Statistik zitiert: Rund 95 % der generativen KI-Pilotprojekte in Unternehmen erzielen keine messbaren geschäftlichen Auswirkungen oder Erträge, während nur etwa 5 % zu bedeutenden Ergebnissen führen. (Yahoo Finance) Die Modelle sind beeindruckend. Die Demos sind blendend. Die Budgets sind real. Und doch überstehen die Ergebnisse selten den Kontakt mit Produktionsabläufen.
Wenn Sie eine KI-Initiative leiten, sollte Sie diese Zahl nicht deprimieren. Sie sollte Sie fokussieren.
Denn die „5 %“ sind nicht unbedingt die Unternehmen mit den höchsten GPU-Ausgaben, dem auffälligsten Chatbot oder dem lautesten KI-Rebranding. Die 5 % sind diejenigen, die KI wie jede andere Produktionskapazität behandeln: versioniert, getestet, beobachtbar, sicher und wiederholbar. Sie bauen Systeme, in denen KI anhand realer Daten, in realen Umgebungen und mit realer Governance bewertet werden kann. Sie verbinden Pilotprojekte mit Arbeitsabläufen, nicht mit Folien. Und sie hören auf, Experimente mit Lieferungen zu verwechseln.
Hier beginnt die KI-Geschichte von Upsun.
Wir sind nicht hier, um Hype zu verkaufen. Wir sind hier, um Teams bei der Umsetzung zu helfen. Wir sind hier, um Ihnen dabei zu helfen, Ihren Proof of Concept (PoC) zuverlässig in der Produktivumgebung zu bringen.
Unsere Strategie ist einfach: Wir konzentrieren uns darauf, unseren Kunden in den drei Bereichen zu helfen, in denen KI-Ergebnisse gewonnen oder verloren werden.
Wenn Sie zu den erfolgreichen 5 % gehören wollen, brauchen Sie kein weiteres KI-Theater. Sie brauchen einen besseren Weg von der Idee zur Produktion.
Kommen wir gleich zu der Frage, die uns gestellt wird.
„Wo sind die GPUs?“
Wir bieten derzeit keine GPU-Infrastruktur in Upsun an, und das ist beabsichtigt.
Die meisten Unternehmen, mit denen wir sprechen, trainieren keine Basismodelle. Sie betreiben keine groß angelegten Inferenzflotten auf ihrer eigenen Hardware. Sie entwickeln Produkte, die über APIs und Dienste die besten Modelle ihrer Klasse nutzen, und verpacken diese Funktionen dann mit unternehmensspezifischem Kontext, Governance und Benutzererfahrung. Das ist kein Kompromiss. Es ist das vorherrschende Muster.
Anstatt also einen GPU-Katalog zu erstellen, um eine Checkbox anzukreuzen (und dabei viel Zeit und Ressourcen zu verschwenden), konzentrieren wir unsere Bemühungen auf das, was der Mehrheit der Teams zum Erfolg verhilft: alles rund um das Modell.
Denn Modelle sind nicht mehr der schwierige Teil. Der schwierige Teil besteht darin, KI-Features so zu gestalten, dass sie sich wie Produktionssoftware verhalten.
Wenn KI-Initiativen ins Stocken geraten, liegt das selten daran, dass „das Modell nicht intelligent genug war”. Häufiger liegt es daran, dass das System rund um das Modell nicht für Folgendes ausgelegt war:
Mit anderen Worten: Teams sind erfolgreich oder scheitern, je nachdem, ob Plattformen ihnen helfen oder schaden.
Die These von Upsun lautet, dass KI-Workloads wie moderne Anwendungen aussehen: Sie erstrecken sich über mehrere Dienste, entwickeln sich schnell weiter und müssen wie alles andere auch verwaltet werden. Genau darin sollte eine cloud-basierte Anwendungsplattform ihre Stärke haben.
KI hat einen seltsamen Effekt auf Technologie-Stacks: Sie macht sie mehr an Diversität reich, nicht weniger reich an Diversität.
Ein Team könnte eine Node.js-API, einen Python-Abrufdienst, einen Hintergrund-Worker für die Dokumentenverarbeitung und eine kleine PHP-Admin-Schnittstelle liefern, alles in einem Produkt. Ein anderes Team könnte eine .NET-Anwendung haben, die Modell-APIs aufruft, mit einem Python-Microservice für Evaluierungs-Harnesses und Batch-Jobs. KI vervielfacht diesen „Glue Code”, und Glue Code taucht in jeder Sprache auf, die Sinn macht.
Deshalb ist Laufzeitflexibilität so wichtig.
Upsun wurde entwickelt, um gängige und weniger gängige Laufzeiten über Sprachen und Frameworks hinweg zu unterstützen, mit Git-gesteuerter Konfiguration und vorhersehbaren Bereitstellungsabläufen. Das bedeutet, dass KI-Teams für jeden Teil des Systems das richtige Tool auswählen können, ohne ein internes Plattformteam um Ausnahmen bitten oder monatelang auf eine maßgeschneiderte Laufzeit warten zu müssen.
Aus diesem Grund ist auch „API-zentriert“ wichtig. KI-Produkte sind API-Produkte. Sie lassen sich in Modellanbieter, Datenquellen, Observability-Stacks, queues und interne Dienste integrieren. Eine Plattform, die Integrationen erschwert, wird die KI-Dynamik still und leise zunichte machen.
Wenn wir einen Grund nennen müssten, warum KI-Projekte in der Produktivumgebung scheitern, wäre es dieser:
Teams testen das KI-Verhalten nicht unter produktionsähnlichen Bedingungen.
Sie testen Eingaben in einem Notizbuch. Sie testen einen kleinen Datensatz. Sie testen mit „Happy Path“-Eingaben. Dann liefern sie das Produkt aus, drücken die Daumen und hoffen das Beste.
Dieser Ansatz versagt bei normaler Software. Bei KI versagt er schneller und deutlicher, da die Randfälle das Produkt sind. Kleine Datenabweichungen, Formatierungsunterschiede, fehlende Felder oder veraltete Kontexte können die Ergebnisse verfälschen. Bewertungen, die in einer kontrollierten Umgebung großartig aussehen, können zusammenbrechen, wenn sie der chaotischen Realität der tatsächlichen Nutzer ausgesetzt sind.
Unsere Plattform für KI beginnt also mit Umgebungen.
Der Git-gesteuerte Ansatz von Upsun ermöglicht es Teams, isolierte Umgebungen pro Zweig zu erstellen, wobei die Konfiguration verfolgt und versioniert wird. In Kombination mit produktionsähnlichen Daten-Workflows (einschließlich Klon- und Bereinigungsmustern, wo dies angemessen ist) können Teams KI-Features unter realistischen Bedingungen validieren, bevor sie die Benutzer erreichen.
Dabei geht es nicht nur um Korrektheit. Es geht um Vertrauen.
KI-Features sind von Natur aus probabilistisch. Sie können Unsicherheiten nicht beseitigen, aber Sie können Spekulationen darüber vermeiden, ob sich Ihr System in der Entwicklung, im Staging und in der Produktivumgebung gleich verhält.
Auf diese Weise gelangen Teams von „das scheint in Ordnung zu sein“ zu „wir können das ausliefern“.
Viele KI-Risiken sind nicht „Skynet“-artig, sondern operativer Natur.
Das sind keine exotischen Fehler. Es handelt sich um grundlegende Lieferfehler.
Die beste Risikominderung ist eine langweilige Infrastrukturhygiene: isolierte Umgebungen, Geheimnisverwaltung, klare Servicegrenzen und vorhersehbare Konfigurationen. Wenn Ihre Plattform diese Dinge vereinfacht, wird KI standardmäßig sicherer.
Das ist die Art von „KI-Unterstützung”, die für die meisten Teams wichtig ist. Nicht eine GPU-Checkbox. Ein System, das die Bereitstellung von KI zuverlässig macht.
Es gibt einen weiteren Trend, der leicht missverstanden werden kann.
KI-gestützte Entwicklung ist nicht nur Autovervollständigung.
Ja, Code-Assistenten in IDEs sind nützlich. Aber die größere Veränderung besteht darin, dass Entwicklungs-Workflows zunehmend durch Agenten unterstützt werden. Menschen nutzen KI, um über Architekturen nachzudenken, Gerüste zu generieren, Tests zu schreiben, Konfigurationen zu aktualisieren, Protokolle zu sortieren und Korrekturen vorzuschlagen.
Wenn Sie eine unverblümte Beschreibung für nicht-technische Stakeholder suchen, dann trifft „Vibe Coding“ zwar die Stimmung, aber nicht die Realität. Echte Teams brauchen nach wie vor Strenge: Überprüfungen, Leitplanken, Reproduzierbarkeit und Verantwortlichkeit.
Deshalb stellen wir eine andere Frage:
Wie machen wir Upsun zu einer Plattform, die KI-Agenten sicher und effektiv nutzen können, während Menschen weiterhin die Hauptrolle spielen?
Teams lesen nicht mehr nur Dokumente. Ihre Tools lesen Dokumente.
Das verändert die Bedeutung von „guter Dokumentation“. Es reicht nicht mehr aus, Seiten zu haben, die gut aussehen. Dokumente müssen strukturiert, konsistent und maschinenlesbar sein, damit Assistenten die richtigen Informationen abrufen können, ohne zu halluzinieren.
Deshalb investieren wir in:
Diese Details klingen unbedeutend. Das sind sie aber nicht.
In einem KI-gestützten Workflow verlangsamen schlechte Dokumente nicht nur die Arbeit der Menschen. Schlechte Dokumente führen in großem Maßstab zu schlechten Ergebnissen.
Mit der Weiterentwicklung agentenbasierter Workflows werden Entwickler von Assistenten mehr erwarten als nur das Programmieren. Sie werden von Agenten erwarten, dass sie die Plattform verstehen, auf der sie eingesetzt werden.
Hier kommt MCP (Model Context Protocol) ins Spiel.
Mit einer MCP-ähnlichen Integration kann ein KI-Assistent verbindliche Plattformkontexte abrufen: Konfigurationsschemata, Best Practices, Umgebungsdetails und betriebliche Einschränkungen. Anstatt zu raten, wie eine Konfigurationsdatei strukturiert oder wie Dienste miteinander verbunden werden sollen, kann der Assistent die Quelle der Wahrheit abfragen.
Die Ausrichtung von Upsun ist hier klar: Kunden MCP-Optionen bieten, die Reibungsverluste reduzieren und die Korrektheit erhöhen.
Dazu gehören Ideen wie:
Das Prinzip ist wichtiger als jede einzelne Implementierung: Wir möchten, dass Kunden weniger Zeit mit Tools verbringen und mehr Zeit mit der Auslieferung.
Wenn Sie KI-Features entwickeln, die über einen Chatbot hinausgehen, benötigen Sie letztendlich eine Suchfunktion. Sie benötigen einen Ort, an dem Sie Einbettungen speichern, Ähnlichkeitssuchen durchführen und Metadaten und Filter aus der realen Welt anhängen können, damit Ihre Anwendung zum richtigen Zeitpunkt den richtigen Kontext abrufen kann. Mit anderen Worten: Sie benötigen eine Vektordatenbank oder eine vektorfähige Datenschicht.
Upsun unterstützt diesen Workflow auf pragmatische Weise.
Wenn Sie einen dedizierten Vektorspeicher wünschen, können Sie Chroma als Teil eines Multi-Anwendungsprojekts auf Upsun ausführen. Chroma ist eine beliebte open-source-Vektordatenbank, die für KI-Anwendungen entwickelt wurde, die Embeddings effizient speichern, abfragen und verwalten müssen, und beschreibt, wie man sie als Python-Anwendung mit persistenter Speicherung über Deployments hinweg konfiguriert.
Sie können auch Qdrant ausführen, eine Vektor-Ähnlichkeitssuchmaschine und Vektordatenbank, die für semantisches Matching und filterintensive Anwendungsfälle entwickelt wurde. Auch hier unterstützt Upsun die Ausführung als eigenständige Anwendung in einem Multi-Anwendungsprojekt, wobei sie isoliert, konfigurierbar und über Deployments hinweg persistent bleibt.
Dies ist für die KI-gestützte Entwicklung von Bedeutung, da das Abrufen von Daten nicht durch das Programmieren validiert werden kann. Die Validierung erfolgt empirisch:
In verzweigungsbasierten Umgebungen lassen sich diese Fragen testen. Ihr KI-Agent kann eine Umgebung aus einem Zweig erstellen, die Erfassung anhand eines geklonten Datensatzes durchführen, die Qualität der Abfrage bewerten und Ihnen Beweise liefern, statt nur Vermutungen anzustellen. Das ist der Unterschied zwischen „demofähig” und „produktionsreif”.
KI-Workflows brechen auch häufig mit der Annahme „eine Laufzeit pro App”.
Ein sehr häufiges Muster sieht wie folgt aus:
Das komponierbare Image von Upsun wurde speziell für diese Realität entwickelt. Es ermöglicht Ihnen die Installation mehrerer Laufzeiten und Tools in Ihrem Anwendungscontainer und basiert auf Nix, was bedeutet, dass Sie aus einem sehr großen Paket-Ökosystem schöpfen und Builds deterministisch und reproduzierbar halten können.
Ebenso wichtig ist, dass das zusammensetzbare Image von Upsun ausdrücklich für mehrere Laufzeiten in einem einzigen Anwendungscontainer entwickelt wurde. In einem zusammensetzbaren Image können Sie einem einzelnen Anwendungscontainer über die Konfiguration mehrere Laufzeiten hinzufügen, sodass Ihre Node-API und Ihr Python-Worker koexistieren können, ohne dass Sie einen fragilen Build-Prozess von Grund auf neu entwickeln müssen.
Da es konfigurationsgesteuert ist, ist es auch KI-freundlich. Ihr Assistent kann Änderungen an der genauen Konfiguration vorschlagen, die definiert, wie Ihre Umgebung aufgebaut ist, und nicht nur Programme, die davon ausgehen, dass die Laufzeit wie von Zauberhand existiert.
Upsun unterstützt auch die praktischen Details, an denen Teams immer hängen bleiben:
Und wenn Ihr Vektoransatz für Teile des Stacks auf Postgres setzt, unterstützt Upsun die Aktivierung von PostgreSQL-Erweiterungen durch Konfiguration statt durch manuelle Schritte. Upsun dokumentiert die Aktivierung von Erweiterungen unter „configuration.extensions” (Erweiterungen aktivieren) in „.upsun/config.yaml” (Erweiterungen aktivieren) und weist darauf hin, dass die Erweiterungen aus der Liste der unterstützten Erweiterungen stammen müssen.
Wenn man diese Teile zusammenfügt, wird die Philosophie klar:
Das ist KI-gestützte Entwicklung, wie sie sein sollte: weniger „Schau, was das Modell geschrieben hat“, sondern mehr „Hier ist die Umgebung, die Daten, die Abrufschicht und der Beweis, dass es funktioniert“.
Der dritte Teil unserer KI-Geschichte ist intern, zeigt sich aber in der Kundenerfahrung.
Wir setzen KI in Upsun ein, aber wir sind dabei selektiv. Wir sind nicht an „KI um der KI willen“ interessiert. Wir wollen kein generisches Chat-Widget ausliefern, das Unternehmen umbenennen und es als Roadmap bezeichnen.
Wir wollen KI dort einsetzen, wo sie echte Reibungsverluste beseitigt.
Und wir wollen dies auf eine Weise tun, die eine harte Realität respektiert: Die meisten KI-Pilotprojekte scheitern, weil sie nie mit dem Workflow verbunden werden. (Computerworld)
Unsere Produkt-KI-Strategie beginnt also mit Workflow-Blockern.
Eine der größten Hürden bei der Einführung moderner Plattformen ist die Konfiguration.
Neue Projekte kommen oft an derselben Stelle zum Stillstand: Der Entwickler hat das Programmiertalent, benötigt aber die richtige Plattformkonfiguration, um es korrekt zu implementieren. Er muss Laufzeiteinstellungen auswählen, Dienste definieren, Routen verknüpfen, Build-Schritte festlegen, Umgebungsvariablen verarbeiten und vieles mehr.
Genau das ist die Art von Aufgabe, die KI gut kann, wenn man sie richtig einschränkt.
Unser erster Schritt war der Einsatz von KI, um Kunden bei der Erstellung von Konfigurationsdateien zu unterstützen. Das bedeutet nicht „frei formulieren und hoffen“. Es bedeutet eine geführte Generierung, die auf dem Schema der Plattform basiert und durch Validierung und menschliche Überprüfung ergänzt wird.
Dies ist ein perfektes Beispiel für den „sinnvollen Einsatz von KI“.
Dafür benötigen Sie keinen Chatbot. Sie benötigen einen Assistenten, der die Regeln Ihrer Plattform versteht.
Die Konfigurationsgenerierung hat uns etwas Wichtiges gelehrt:
KI ist am nützlichsten, wenn man sie mit Einschränkungen, Kontext und einer engen Feedbackschleife kombiniert.
Wenn Sie dem Modell Struktur (Schemas), maßgeblichen Kontext (Dokumente) und Validierung (CI-Prüfungen oder Plattformvalidierung) geben, erhalten Sie Ergebnisse, die wesentlich zuverlässiger sind als „Prompt Engineering” allein.
Diese Lektion geht über die Konfiguration hinaus.
Sie gilt auch für:
Mit anderen Worten: Die besten KI-Features eines Produkts ähneln weniger einer Konversation als vielmehr einer intelligenten Automatisierung.
Sobald Sie Konfigurationen sicher generieren können, besteht der nächste logische Schritt darin, Kunden dabei zu helfen, zu verstehen, was nach der Bereitstellung geschieht.
Hier können agentenbasierte Funktionen einen echten Mehrwert bieten, insbesondere in Verbindung mit Observability.
Stellen Sie sich einen Assistenten vor, der Folgendes kann:
Das ist die Richtung, in die wir uns bewegen: KI, die Kunden dabei hilft, schneller von „etwas ist kaputt“ zu „es ist repariert und überprüft“ zu gelangen.
Auch hier geht es nicht darum, Ingenieure zu ersetzen. Es geht darum, die sich wiederholende Untersuchungsarbeit zu beseitigen, die Teams auslaugt und die Lieferung verlangsamt.
Der Begriff „GenAI Divide“ des MIT findet großen Anklang, weil er das widerspiegelt, was viele Führungskräfte empfinden: Die Einführung ist hoch, die Transformation ist gering. (Yahoo Finance)
Diese Lücke lässt sich nicht durch den Kauf weiterer Tools schließen. Sie lässt sich durch den Aufbau besserer Systeme schließen.
Wenn Upsun KI in seinem Produkt einsetzt, behandeln wir sie daher wie jede andere Funktion:
Wenn die Antwort „Nein” lautet, handelt es sich wahrscheinlich um eine Demo und nicht um eine Produktfunktion.
Wir bauen eine Plattform, auf der KI-Arbeit kein Sonderprojekt ist, sondern ein normaler, wiederholbarer Workflow in Produktionsqualität.
So können Kunden aus dem Pilot-Fegefeuer ausbrechen.
Und so beginnen Teams, sich wie die 5 % zu verhalten: nicht indem sie Neuheiten hinterherjagen, sondern indem sie die Umsetzung meistern.
Denn der echte Wettbewerbsvorteil im KI-Zeitalter ist nicht der Zugang zu Modellen. Es ist die Fähigkeit, schneller als alle anderen zu liefern, zu lernen und sich zu verbessern, ohne das Vertrauen zu verlieren.
Upsun existiert, um diesen langweiligen, leistungsstarken Kreislauf zu vereinfachen.
Keine Spielereien. Kein Rebranding-Theater. Nur eine Plattform, die Ihnen hilft, Ihre Produkte auf den Markt zu bringen.
Wenn Sie KI-Features entwickeln und möchten, dass diese über die Demo hinaus Bestand haben:
Join our monthly newsletter
Compliant and validated

