Contact salesFree trial
Blog

Chapitre 2 : Upsun et les décennies du web ouvert

AIsource ouverteapprentissage automatique
Partager

Dans le premier chapitre de cette série, j'ai parlé de l'évolution de la relation entre les entreprises, leur infrastructure numérique et leurs capacités de création de code. Dans le présent chapitre, j'aimerais remonter dans le temps et examiner comment cette relation a évolué au fil des décennies du web.

Pourquoi ? Comprendre comment et pourquoi le web a évolué au fil du temps pour devenir ce qu'il est aujourd'hui vous aidera, je l'espère, à comprendre ce que nous voulons réaliser et le type de fournisseur de services que nous voulons être avec Upsun.

Alors, sans plus attendre, permettez-nous de vous ramener là où tout a commencé : 1995.

La première décennie du web : 1995-2005

Les jeunes années du web ont vu la démocratisation de l'informatique personnelle, car avant cette décennie, la plupart des gens n'avaient pas d'ordinateur à la maison. D'une fonction commerciale dédiée, l'informatique et l'internet sont devenus omniprésents. Parallèlement, deux phénomènes très forts et très contradictoires se sont produits.

D'un côté du web, il y a eu une diffusion. Lorsque les grandes entreprises ont commencé à s'adresser au public par le biais d'une conversation à sens unique, elles n'ont pas voulu exposer leurs systèmes internes et leurs capacités transactionnelles.

D'autre part, l'informatique a changé. Vous pouviez avoir un ordinateur sous votre bureau auquel vous pouviez vous connecter depuis n'importe quel endroit de la planète sans avoir à demander la permission à qui que ce soit. La barrière à l'entrée d'un programme informatique en réseau est devenue si faible que la réduction des coûts a permis à tout un chacun de développer ses propres médias. C'est ainsi que sont apparus les blogs et les Wikipédias, ainsi que le commerce électronique de pair à pair tel que eBay et PayPal.

Tout cela a été alimenté et accompagné par la croissance de l'open source. Entre 1995 et 2005, les serveurs fonctionnaient toujours sous Unix et Windows, mais Linux commençait à devenir le choix par défaut. De même que les langages de programmation dynamiques faciles à déployer, en particulier PHP. Avec peu de méthode dans la folie, c'étaient les années du boom et de l'effondrement (le crash des dotcoms), du "fake-it-till-you-make-it" (faire semblant jusqu'à ce qu'on le fasse). C'est ce qui a permis à l'économie unitaire de fonctionner, avec un coût de départ presque nul et des coûts marginaux très faibles à prendre en compte. Après tout, lorsque vous n'avez pas à payer de droits de licence pour les systèmes d'exploitation et les langages de programmation, vous pouvez évoluer très rapidement. Certains des géants actuels, comme Amazon ou Google, ont été créés sans presque aucun investissement en capital à l'époque.

La deuxième décennie du web : 2005-2015

La deuxième décennie du web a vu l'essor des médias sociaux centralisés sous leur forme actuelle, notamment Facebook. Mais aussi, avec le nombre croissant de consommateurs disponibles, cette décennie a accueilli la croissance explosive du commerce électronique recentré, comme Amazon Prime, Shopify et Etsy. Ces entreprises ont conservé certaines des caractéristiques de l'ère du peer-to-peer en tant que places de marché permettant à d'autres de jouer dans leurs jardins fermés, tout en étant contrôlées de manière centralisée.

Plus important encore, c'est au cours de cette décennie que l'internet est devenu mobile avec l'apparition de l'iPhone et des écosystèmes Android. Soudain, vu l'ampleur de l'utilisation de l'internet, il n'était plus possible de faire tourner un serveur web sous son bureau. C'est à cette époque que la virtualisation des serveurs a commencé à se mettre en place avec VMware, Solaris Zones, Xen et KVM.

L'économie unitaire de la création de logiciels a continué à baisser - ce sont les années de démarrage - tandis que l'économie unitaire de l'exploitation du matériel a continué à croître. C'est également au cours de ces années qu'est apparu le "cloud", qui a eu un effet incroyable sur la démocratisation, accompagné d'un fort mouvement de centralisation. Mené par Amazon Web Services (AWS) et lentement accompagné par Google et Microsoft.

Les années 2005 à 2015 ont également été celles de l'open source. Parallèlement à de profonds changements dans la façon dont les logiciels ont été construits et développés avec des méthodologies agiles, des tests de logiciels et l'automatisation. Au cœur de cette révolution, l'arrivée d'un nouvel outil de gestion de code source distribué, Git.

Git - initialement développé pour le noyau Linux - a permis un développement beaucoup plus évolutif que les outils précédents tels que SVN, CVS et SourceSafe. En fait, il offrait une collaboration à grande échelle. Mais dans le même temps, l'open source lui-même a été centralisé, Github devenant la pièce maîtresse de la démocratisation du développement logiciel. Et tandis que l'open source devenait dominant, la plupart des projets n'avaient pas de modèle commercial durable, si ce n'est pour servir un autre objectif concurrentiel - par exemple, Google avec Android et Google avec Chrome.

À cette époque, PHP, facile à déployer et qui fait encore fonctionner certains des plus grands sites - Wikipedia, Facebook et Slack - et les plus nombreux - Drupal et WordPress - a commencé àêtre supplanté dans le monde des start-ups. D'abord par Ruby, puis par Python, qui était peut-être une option plus productive mais beaucoup plus difficile à déployer et à gérer.

Ce sont les années glorieuses des solutions internet sur mesure. Des frameworks apparaissent - comme Rails, Symfony et Django- quipermettent de développer des solutions robustes et évolutives à un rythme inimaginable au cours de la décennie précédente. Ces solutions plus productives et moins triviales à exploiter voient apparaître des outils d'automatisation des opérations, tels que Chef, Puppet et Ansible, qui seront bientôt qualifiés d'outils DevOps. Tandis que le "nuage" passe d'un petit nombre de primitives de bas niveau à une vaste suite d'outils de haut niveau à valeur ajoutée. Après avoir proposé un approvisionnement juste à temps et une capacité élastique, les fournisseurs d'infrastructure en tant que service (IaaS) commencent à construire des services étroitement couplés qui entraînent une forte dépendance à l'égard des fournisseurs.

Grâce à la croissance de l'utilisation mobile et à la réduction de la complexité avec la popularité des architectures REST qui remplacent d'autres formes de communication de machine à machine, les API Web se généralisent. Le web n'est plus seulement quelque chose consommé par les navigateurs web, mais quelque chose qui va permettre l'interconnexion d'un grand nombre de services différents provenant de fournisseurs multiples, de manière essentiellement transparente.

C'est aussi l'époque de la divergence des hyperscalers : les entreprises natives du numérique qui vont définir le nuage. Facebook, Amazon et Google conçoivent leur propre matériel et construisent des architectures logicielles sur mesure qui possèdent des capacités magiques inaccessibles aux acteurs ordinaires. Ils déploient en permanence des systèmes hautement distribués et redondants avec une évolutivité élastique. Ils construiront et définiront ce que signifient les opérations à l'échelle dans le nuage. Node.js apparaît comme une autre démocratisation permettant aux développeurs frontaux de se mêler aux personnes chargées du backend. Il permet également des cas d'utilisation hautement simultanés qui n'étaient auparavant accessibles qu'aux hyperscalers et, dans une certaine mesure, aux bonnes vieilles entreprises avec Java et .NET. C'est aussi l'époque des architectes astronautes copieurs, incarnés par MongoDB et Kafka.

Un concept est apparu au début de la deuxième décennie, un concept qui allait devenir dominant et disparaître peu après. Il s'agissait d'un service rendu par un système informatique qui n'était plus assuré par un seul système, ni même par une seule entreprise. De nombreuses entreprises ont apporté leurs capacités : tout d'abord en injectant simplement des javascripts dans un front-end ; l'écosystème des "tiers". Les pages web sont composées de ressources provenant d'un peu partout, mais aussi de backends qui se coordonnent par le biais d'API, ce qui aboutit souvent aux GAFAM.

Comme un écho aux premiers jours du web où l'échelle du web était accessible à tous et où les fournisseurs IaaS et ces nouvelles technologies open-source réduisaient la barrière à l'entrée. Mais souvent au prix d'un doublement des coûts et d'une complexité opérationnelle croissante.

Lesplateformes en tant que service (PaaS) ont été créées au cours de cette décennie pour réduire le coût des opérations, principalement pour les applications monolithiques avec des acteurs tels que Heroku et AppEngine. Elles promettent d'absorber cette complexité opérationnelle croissante en offrant un moteur d'exécution avec des contraintes fortes. Ces contraintes sont l'absence de fichiers locaux, une seule base de données supportée et une seule façon de déployer. Accompagnés par la productivité des cadres web, les PaaS ont réduit non seulement le délai initial de mise sur le marché, mais aussi le délai de mise à l'échelle. Mais les limitations architecturales et les modèles de tarification non évolutifs ont fait que la plupart des entreprises ont abandonné ces solutions après leur croissance initiale.

Notre décennie du web : 2015-2025

La décennie 2015-2025 est marquée par l'omniprésence de l'internet de tout. Nous ne nous contentons plus de nous connecter à l'internet, la plupart des pays développés le vivent et le respirent. Netflix, Uber, Airbnb, Booking, Amazon, Gmail, Google docs, Slack et Teams sont présents à chaque heure de notre vie. Dans le monde des affaires, ce sont les années du SaaS.

L'économie unitaire du développement de logiciels a atteint son apogée, entraînant un nouveau mouvement de centralisation. Encouragé par la rareté des plateformes B2C et la tendance croissante à renoncer au développement de logiciels sur mesure et à utiliser des solutions SaaS à la place. L'open source continue d'alimenter tous ces services en arrière-plan, mais la valeur est captée par SaaS d'un côté et par l'informatique dématérialisée de l'autre.

En réaction, les solutions commerciales open source commencent à mûrir avec des acteurs forts dans les domaines des bases de données (MongoDB, Elastic), DevOps (Hashicorp, Cloudbees et Docker), et les espaces CMS/ecommerce (Automattic, Acquia et Magento).

Depuis les applications monolithiques de la décennie précédente, construites avec une architecture simple et multi-niveaux native de l'internet, de nouvelles solutions ont commencé à se former. Souvent construites avec des microservices sans état d'un côté, et une infrastructure de données évolutive proposée par le fournisseur de services en nuage de l'autre. Ces nouvelles topologies ont apporté avec elles un niveau énorme de complexité opérationnelle qui a conduit à l'observabilité en tant que service, comme NewRelic et Datadog, comme remédiation.

Ces nouvelles topologies rendent nécessaires d'autres formes de déploiement et d'isolation de la charge de travail. Au départ, en tant qu'outil de développement, les conteneurs ont commencé à se démocratiser et les unités d'exécution sont devenues plus petites. Kubernetes a rapidement gagné en popularité et, d'une certaine manière, a supplanté Linux en tant que couche d'abstraction de la "chose vers laquelle vous vous déployez". Cette évolution s'accompagne d'une nouvelle explosion de la complexité opérationnelle de l'infrastructure sous-jacente - en plus de ce qui était déjà apporté par les charges de travail.

De nouvelles formes de PaaS apparaissent qui, au lieu de gérer l'ensemble de l'infrastructure - avec une approche fondée sur l'opinion - gèrent uniquement les plus petits éléments du système. Les petits éléments sans état sont reliés entre eux par des maillages de services tels que Lambda et Serverless. Même si les complexités inhérentes aux systèmes distribués rendent l'adoption de ces derniers au mieux anecdotique. La plupart des organisations déploient des applications monolithiques sur ces systèmes ou les utilisent uniquement à la périphérie de l'application pour des tâches très simples.

Une grande partie du nuage actuel concerne la séparation de la structure des données, qui est le mécanisme de verrouillage des hyper-échelles - BigQuery et RDS. Mais une partie de ces tendances concerne en fait le déplacement de la couche de données vers un niveau isolé. Souvent " en tant que service ", nous pouvons le voir dans la croissance explosive de Snowflake, mais aussi dans la forte position sur le marché de MongoDB, Confluent et Elastic Search. C'est encore plus vrai pour la couche de données qui contient des données de tiers. Au départ, il s'agissait du paradigme de l'OpenData, mais aujourd'hui, tout tourne autour de l'apprentissage automatique et des modèles formés. OpenAI et Anthropic sont les principaux exemples de cas où "vos" données deviennent une couche finement ajustée au-dessus d'un grand modèle de langage (LLM) fermé. Accessibles uniquement sous la forme d'une API à distance, vous n'avez plus le contrôle de vos données.

La première "décennie" des LLM de niveau de production était entièrement constituée d'API propriétaires en mode SaaS - une décennie qui n'a duré que quelques mois. Les deuxième et troisième quarts de décennie ont déjà vu le pendule basculer vers des modèles open-source, le LLAMA générant une explosion à ce niveau. Nous avons également constaté l'importance croissante de l'inférence sur l'appareil, des modèles privés affinés et de l'IA explicable, autant d'indicateurs qui montrent que les deux approches seront pertinentes.

En corrélation avec ces modèles d'utilisation croissants, les services en nuage se sont exprimés comme de simples services de périphérie. Un autre groupe d'acteurs importants, les fournisseurs de CDN, ont introduit des capacités d'exécution allant au-delà de leurs fonctions initiales de mise en cache pour exécuter des parties d'applications à la périphérie.

En cette fin de décennie, nous assistons à l'apparition de l'ingénierie de plateforme en réponse à la complexité croissante des architectures logicielles modernes, comme l'indique Gartner. Cette tendance s'explique en partie par l'incapacité des PaaS de première génération à dépasser le simple cas d'utilisation monolithique initial. En contrepartie, nous considérons MACH, un nouveau nom qui ne devrait pas durer, comme un exemple ultime de la fin d'un cycle décentralisé. L'avenir est à la composabilité et se terminera peut-être par des entreprises ne disposant d'aucune infrastructure informatique propre, tout étant basé sur SaaS.

Platform.sh, par l'intermédiaire d'Upsun, est dans une position très unique en ce qui concerne la composabilité des logiciels, en proposant une solution technique et organisationnelle pour les équipes de produits afin de couvrir les paris et d'intégrer les meilleures pratiques. Que ces équipes se tournent entièrement vers le SaaS/API, qu'elles réintègrent des capacités en interne, qu'elles soient des adeptes précoces du codage assisté par l'IA et de l'utilisation omniprésente des LLM en production, ou qu'elles attendent que la poussière retombe et que les technologies arrivent à maturité, Upsun est dans une position unique en matière de composabilité logicielle.

Chapitre 3 : Upsun et les décennies du web ouvert

Votre meilleur travail
est à l'horizon

Essai gratuit
Discord
© 2025 Platform.sh. All rights reserved.