En moins de deux ans, la technologie Docker s’est imposée aux quatre « coins » de la planète, faisant de cette solution de virtualisation d’application une méthode choix pour dynamiser les déploiements. Dans le même temps, un véritable écosystème s’est construit autour de Docker, qui est un gage non seulement de son dynamisme, mais aussi de sa pérennité.
Après tout Docker, anciennement dotCloud était encore totalement inconnue en 2014, de même que son fondateur Solomon Hykes et les utilisateurs ont besoin de se rassurer sur des critères tangibles, avant d’adopter une technologie aussi innovante, voire perturbante, que celle des containers.
D’où l’intérêt que présente cet écosystème, dont le moins que l’on puisse en dire, est qu’il se porte bien.

Nombreux produits nouveaux à DockerCon

Lors de sa désormais conférence annuelle DockerCon, qui s’est tenue à Seattle, plusieurs partenaires et pas des moindres, ont annoncé des produits intéressants, qui renforcent le catalogue de solutions autour de Docker et contribuent à ce fameux écosystème.

Parmi celles-ci, la Compagnie Sysdig, qui ne date pas non plus du siècle dernier, puisqu’elle est née il y a à peine 2 ans, propose une extension Cloud à son outil de supervision et d’administration, qui prend désormais en compte des applications distribuées et encapsulées dans un container.

Concrètement Sysdig Cloud s’installe comme un container privilégié qui analyse en quasi-temps réel tous les évènements système, les appels Syscall et les échanges réseaux. Les données ainsi recueillies sont ensuite acheminées vers un utilitaire qui les regroupe, les corrèle et en ressort une visibilité globale des installations, via des dashboards très impressionnants.

C’est incontestablement une réussite et il serait bien étonnant qu’on ne le retrouve pas chez de nombreux utilisateurs, déjà clients de Docker.

Datadog est un autre acteur spécialisé dans le même créneau de supervision que Dysdig, mais avec une perception plus globale des objets à surveiller. Compatible avec pratiquement tout ce qui existe, son outil de supervision et de monitoring fait désormais la part belle à Docker, en particulier pour ce qui fait la spécificité de Docker, c’est-à-dire sa rapidité de démarrage et de lancement, des évènements difficiles à suivre.

C’est d’ailleurs un peu l’originalité de l’outil de Datalog, que de s’adapter en temps réel aux évolutions constantes et rapides d’une architecture Docker, là où la plupart des autres produits ont besoin de temps pour collecter, contrôler, statuer et prendre des décisions de monitoring.

Preuve que Datalog est convaincu de la pérennité de Docker, il a profité de DockerCon pour dévoiler les résultats d’une enquête, qui intéressera beaucoup de monde, sur le marché de Docker.

Il ressort de cette étude que le marché Docker croit de 30 % par an environ et que les 2/3 des entreprises qui ont essayé Docker l’ont adopté en moins d’un mois et qu’avant 9 mois, ils ont quintuplé son usage.

Ce qui traduit en langage clair, veut dire : « essayez-le, à moins d’être optus et borné, vous allez l’adopter… ».

Maîtriser les conséquences de Docker

AppFormix est une autre startup qui va sans doute faire parler d’elle, pour avoir choisi un créneau intelligent dans ce petit monde. Il ne s’agit pas cette fois d’administrer et de monitorer des instances Docker « On Premise » ou dans le Cloud, mais de faire du « tuning », autrement dit de l’optimisation des installations. Ce qui n’est pas la même chose.

Pour cela, AppFormix a collaboré avec Intel, dont il utilise l’outil RDT (Resource Director Technology), pour avoir la main sur la consommation des ressources de Docker, tout comme il le fait pour les MV de VMWare ou Hyper-V.

Quand on sait exactement ce que « consomme » une instance Docker, on a toutes les chances de pouvoir l’optimiser et régler le problème de ce qu’AppFormix appelle les conséquences du voisin bruyant (« noisy neighbor »), qui fait la fête sans se préoccuper des conséquences pour le reste de l’immeuble.

Avec les containers c’est la même chose et il est essentiel de savoir ce qui se passe exactement en termes de consommation, car cela peut avoir des conséquences désastreuses sur les autres applications.

D’après AppFormix, le fait d’utiliser son Container Flow avec RDT, réduit le temps de réponse moyen des serveurs Web de 51 %, dont il améliore le débit global de traitement de 27 %. Et la startup va plus loin qui indique que son produit réduit de 70 % la latence d’accès aux serveurs et la fameuse gigue, qui est la variation dans le temps de cette latence.

Docker et les réseaux

Weaveworks s’est intéressé pour sa part aux conséquences que peut entraîner Docker sur les réseaux et plus précisément lorsque Docker est exploité dans une architecture de type MSA, dans laquelle chaque container va embarquer un ou plusieurs micro-services.

Partant d’une architecture de base, avec un certain nombre de micro-services enregistrés dans un référentiel, ces micro-services vont être exploités par un nombre grandissant d’applications, qui chacune va mettre en œuvre un mécanisme d’orchestration pour les agencer et donc peser lourdement sur les ressources réseaux.

En fait, Weaveworks avec Weave Cloud veut être le « chien de garde » de l’installation, capable de prévenir l’administration de ce qu’elle s’approche de la saturation.

Le produit Weave Cloud est un logiciel de type SaaS, qui intègre 2 produits dédiés, dont Weave Net dédié à l’environnement Amazon AWS VPC.

Cette fois, on est dans le dur…

Tous ces outils et il en existe de nombreux autres, témoignent de ce que cette fois, nous sommes dans le dur et que des concepts, on est passé à l’opérationnel Docker. Ce qui est le même cheminement suivi par VMWare, qui lui-aussi a été à l’origine d’un écosystème foisonnant, voire dans le passé par IBM et son « acolyte » CA, qui s’était fait une spécialité des utilitaires d’exploitation sur les mainframes de la compagnie.

C’est à compter de cet instant que la technologie ne se pose plus en termes de choix mais de contraintes de mise en œuvre et de suivi.

Ce qui est très différent…