Tech Talk & Chill avec André : Live Twitch, les mardi et jeudi soirs 19h30 – 21h30 !
Prochain live découverte : Développeur d’Applications en alternance, le mardi 29 avril à 12h | Je m’inscris

Histoire du DevOps : on faisait comment avant ?

10/04/2025
Histoire du DevOps : on faisait comment avant ?

Avant que le DevOps ne révolutionne la manière dont on développe et déploie des applications, les équipes de développement et d’exploitation travaillaient en silos bien séparés. Bugs à répétition, mises en production chaotiques, délais interminables… c’était une autre époque, pas si lointaine.

Mais alors, quelle est l’histoire du DevOps, et comment faisait-on avant l’apparition de ce modèle qui a tout changé ?

1. Histoire du DevOps : Quand dev et ops se regardaient de loin

Dans les années 90 et 2000, les développeurs écrivaient leur code… et le passaient aux équipes d’exploitation comme une patate chaude. Pas d’automatisation, peu de communication, et une organisation en cascade où chaque étape pouvait bloquer la suivante. Résultat ? Des déploiements manuels, des erreurs humaines, et des nuits blanches pour les ops.

Avant l’avènement du DevOps, le développement logiciel suivait généralement le modèle « waterfall » (en cascade), formalisé par Winston W. Royce en 1970. Ce modèle séquentiel divisait strictement les phases de développement : analyse des besoins, conception, implémentation, test, déploiement et maintenance. Chaque équipe travaillait en isolation relative des autres.

J’ai écrit le code, il marche sur ma machine, mon travail est terminé.

Cette séparation était particulièrement marquée entre les équipes de développement et d’opérations :

    • Les développeurs se concentraient sur la création de nouvelles fonctionnalités et la résolution de bugs, souvent sans comprendre les contraintes des environnements de production. Comme l’ont décrit Paul Hammond et John Allspaw dans leur présentation « 10+ Deploys Per Day » en 2009, les développeurs avaient tendance à penser : « J’ai écrit le code, il marche sur ma machine, mon travail est terminé ».

    • Les équipes d’exploitation étaient responsables de la stabilité des systèmes mais n’étaient pas impliquées dans les décisions de conception. D’après Gene Kim, co-auteur de « The Phoenix Project« , ces équipes développaient une aversion au risque qui ralentissait l’innovation.

2. Les galères du “livrer vite” sans méthode

Avec l’arrivée des applications web et mobiles, la pression pour livrer plus vite a explosé. Mais sans collaboration efficace entre dev et ops, chaque mise en production était une bombe à retardement.

histoire du devops avant le devops oclock

 

Tout l’équipe Ops dans l’enfer du déploiement des années 90-2000.

C’est cette séparation organisationnelle qui créait de nombreux problèmes interconnectés. Tout d’abord, les déploiements devenaient complexes et risqués : en 2007, une étude de Gartner rapportait que 80% des incidents en production étaient causés par des changements mal gérés. Les déploiements étaient donc souvent des événements rares et traumatisants. En parallèle, la documentation restait insuffisante, car les procédures de déploiement étaient fréquemment documentées de façon incomplète. Une étude de Forrester de 2006 révélait d’ailleurs que 60% des entreprises n’avaient pas de processus formalisés pour la transition des applications vers la production.

Avant le DevOps : les outils de l’époque

Les outils disponibles reflétaient cette séparation organisationnelle et méthodologique. Pour le contrôle de source, CVS et SVN dominaient, avec des modèles de branches complexes et des fusions difficiles. Concernant le déploiement, on utilisait principalement des scripts shell personnalisés, souvent peu fiables et mal documentés. Quant au monitoring, des solutions comme Nagios (créé en 1999) se concentraient sur la disponibilité plutôt que sur la performance. Enfin, l’infrastructure reposait sur la configuration manuelle des serveurs physiques, sans abstraction ni automatisation.

Cette période a progressivement créé le besoin qui a conduit à l’émergence du DevOps à la fin des années 2000, lorsque Patrick Debois organisa le premier DevOpsDays en 2009, formalisant un mouvement qui cherchait à combler ce fossé entre développement et opérations.

3. L’automatisation et l’essor de l’Agile : Premiers signes du DevOps

On ne peut pas compter l’histoire du DevOps sans évoquer les méthodes Agile, elles ont commencé à casser les silos, mais il manquait encore une brique essentielle : l’automatisation. Avec la CI/CD, les conteneurs (coucou Docker !) et l’infrastructure as code, les équipes ont découvert qu’on pouvait coder et livrer sans tout casser à chaque fois.

Même les équipes Agile se heurtaient souvent au « mur de confusion » lors du passage à la production.

L’émergence des méthodes Agile au début des années 2000, formalisée par le Manifeste Agile en 2001, a constitué une première réponse aux rigidités du modèle en cascade. Ces méthodes préconisent des cycles de développement plus courts et itératifs, favorisant l’adaptation continue aux besoins des utilisateurs. Cependant, comme le soulignait Jez Humble dans son ouvrage « Continuous Delivery » (2010), même les équipes Agile se heurtaient souvent au « mur de confusion » lors du passage à la production.

C’est dans ce contexte que les pratiques d’intégration continue (CI) ont gagné en popularité. Des outils comme CruiseControl (2001), puis Jenkins (2011) ont permis d’automatiser la compilation et les tests à chaque modification du code source. Martin Fowler, auteur et informaticien britannique dans la conception de logiciels d’entreprise, expliquait que cette pratique réduisait considérablement les problèmes d’intégration en détectant les erreurs plus tôt dans le cycle de développement.

La livraison continue (CD) est venue compléter ce dispositif en automatisant également les phases de déploiement. Timothy Fitz, ingénieur chez IMVU, décrivait en 2009 comment son équipe avait réussi à mettre en place des déploiements automatisés plusieurs fois par jour. Cette approche constituait une rupture radicale avec les cycles de déploiement trimestriels ou semestriels alors courants dans l’industrie.

Dans l’histoire du DevOps, la virtualisation et surtout l’avènement des conteneurs ont considérablement facilité l’automatisation. Docker, lancé en 2013 par Solomon Hykes, a révolutionné la façon dont les applications étaient empaquetées et déployées. Comme l’expliquait Adrian Cockcroft, alors chez Netflix, les conteneurs permettaient enfin de résoudre le problème récurrent du « ça marche sur ma machine » en garantissant que l’environnement d’exécution restait constant du développement à la production.

4. Le DevOps, une révolution inévitable

L’adoption du DevOps a marqué la fin de l’ère des tickets interminables entre dev et ops. Aujourd’hui, le code est testé, déployé et surveillé en continu, permettant des mises en production rapides et fiables. En bonus : moins de stress, plus de collaboration et des entreprises qui innovent plus vite.

Le terme « DevOps » lui-même est né lors du premier DevOpsDays dont on a déjà parlé. Ce mouvement répondait à un besoin profond de l’industrie : réconcilier la rapidité du développement avec la stabilité des opérations. Comme l’expliquaient Damon Edwards et John Willis dans leur « DevOps Café Podcast » en 2010, il s’agissait moins d’une méthodologie formelle que d’une culture et un ensemble de pratiques.

histoire du devops evolution deploiement oclock

 

Une équipe DevOps en plein déploiement : zénitude au rendez-vous

Cette révolution a rapidement gagné du terrain grâce à des retours d’expérience convaincants. En 2011, Etsy rapportait être passé de déploiements bimensuels douloureux à plus de 50 déploiements quotidiens grâce à leurs pratiques DevOps. De même, Amazon annonçait en 2014 effectuer en moyenne un déploiement toutes les 11,6 secondes sur ses différents services.

La philosophie « You build it, you run it » popularisée par Werner Vogels, CTO d’Amazon, a transformé fondamentalement la relation entre développeurs et opérationnels. Les équipes de développement assumaient désormais une responsabilité accrue sur le cycle de vie complet de leurs applications, tandis que les équipes d’exploitation évoluaient vers un rôle de fournisseurs de plateformes et d’expertise.

L’observabilité est devenue un pilier central du DevOps moderne. Au-delà du simple monitoring, des outils comme Prometheus (2012) ou les solutions d’APM (Application Performance Monitoring) permettaient d’obtenir une visibilité complète sur le comportement des applications en production. Charity Majors, co-fondatrice de Honeycomb, expliquait en 2017 comment cette observabilité permettait de réduire drastiquement le MTTR (Mean Time To Recovery) lors d’incidents.

Puis, les études quantitatives ont confirmé l’impact positif du DevOps. Le rapport « State of DevOps » de DORA (DevOps Research and Assessment) a démontré année après année que les organisations ayant adopté ces pratiques déployaient 200 fois plus fréquemment, avec des temps de récupération 24 fois plus rapides et 3 fois moins d’échecs de déploiement. Nicole Forsgren, co-auteure de « Accelerate » en 2018, a établi une corrélation statistique entre les pratiques DevOps et la performance organisationnelle globale.

Aujourd’hui, l’histoire du DevOps n’est pas terminée, la méthode continue d’évoluer avec des concepts comme le GitOps, le DevSecOps intégrant la sécurité dès la conception, et le Platform Engineering visant à démocratiser les pratiques DevOps à l’échelle des organisations. Comme le soulignait Gene Kim en 2019 :

Le DevOps n’est pas une destination mais un voyage continu d’amélioration.

5. Comment se former au DevOps EN 2025 ?

Aujourd’hui, il n’existe pas de licence ou de master dédié, seul un titre professionnel a été homologué en 2021. Le DevOps s’apprend donc à travers des formations qui couvrent l’automatisation, le cloud, la conteneurisation (Docker, Kubernetes), et bien plus. Elles s’adressent en générale aux développeurs ou administrateurs système qui souhaitent monter en compétences et devenir un expert du DevOps.

Chez O’clock, par exemple, la formation Expert DevOps dure 8 mois et permet d’aborder à la fois le développement et l’infrastructure. Elle commence par les bases (Git, algorithmie, réseaux) et monte en puissance jusqu’aux outils avancés comme Ansible, Docker, Terraform ou encore Kubernetes, avec un projet professionnel à la clé. Elle prépare au titre professionnel Administrateur Système DevOps RNCP 30061 (niveau bac+4), reconnu par l’État.

Si vous n’avez pas encore d’expérience en développement ou en administration système, d’autres parcours existent pour vous préparer en amont. Vous pouvez ainsi suivre une formation de développeur fullstack pour acquérir les bases du code, ou de technicien systèmes & réseaux pour apprendre à gérer une infrastructure informatique.

Un retour en arrière ? Non merci !

Imaginer un monde sans DevOps, c’est un peu comme revenir à l’ère du fax alors qu’on a la fibre. Aujourd’hui, rapidité, fiabilité et collaboration sont devenues des exigences incontournables, et le DevOps en est l’un des leviers principaux. Il ne s’agit plus seulement de techniques ou d’outils, mais bien d’un changement culturel profond, qui transforme les façons de travailler, de communiquer… et même de penser l’infrastructure.

Mais le DevOps ne s’improvise pas. Il s’apprend, se teste, se construit. Et bonne nouvelle : vous pouvez vous y former dès maintenant, que vous veniez du développement ou de l’administration système. 

Parce qu’au fond, plus personne n’a envie de revenir à l’époque où “ça marchait sur ma machine” — et nulle part ailleurs.

Alors, prêt·e à passer de l’autre côté du mur de confusion ?