L’évènement n’est pas anodin. 2 ans après s’être lancé dans l’aventure de l’intermédiation des Clouds hétérogènes, Cisco jette l’éponge.

C’est d’autant plus inquiétant que Cisco a fondé son architecture vCloud sur la pile OpenStack, censée servir de liant entre les solutions. L’objectif étant d’assurer l’interopérabilité des Clouds et de permettre à un usager de déployer ses VM selon ses convenances et humeur.

Cisco était sans doute le mieux placé pour garantir ces liens, qui n’était pas lui-même un prestataire de Cloud et ne faisait donc pas concurrence à ses clients. Son idée était au fond de jouer le même rôle de facilitateur technique que dans un réseau traditionnel, à base de routeurs.

Mais il semble bien que c’est raté.

Tout va trop vite

Les raisons de l‘annonce faite par Cisco sont encore un peu floues. Ce que l’on sait seulement, c’est qu’il n’a pu soutenir le rythme de ses clients et qu’il n’a pas su adapter vCloud à leurs incessants changements.

Tout a été trop vite. Et sans doute Cisco a-t-il sous-estimé la complexité de cette intermédiation et les différences structurelles qui existaient entre les technologies de virtualisation VMWare, Hyper-V, KVM et les autres, qui sont à la base des mécanismes de provisionnement des Clouds.

Peut-être a-t-il aussi trop fait confiance à OpenStack, trop vite et trop tôt, qui n’avait pas en 2014 la maturité nécessaire et qu’il n’a d’ailleurs toujours pas aujourd’hui.

Tout ceci est très inquiétant, car en dehors de Cisco, on ne voit pas très bien qui aura l’envergure et l’expérience suffisantes pour imposer ses solutions sur le marché, qui plus est doivent être ouvertes (comme l’est OpenStack), de manière à susciter des vocations chez les partenaires équipementiers et intégrateurs.

En tout cas, le flambeau ne pourra pas être repris par un HPE, Dell, Microsoft ou Google, qui ne pourront jamais convaincre les usagers de leur impartialité. Nous croyons plus à un Facebook dans ce domaine, à l’origine d’OCP, une plate-forme de convergence pour les datacenters, qu’à un acteur traditionnel.

Les conséquences sur le Cloud

Ce qui est sûr, c’est que le Cloud n’avait pas besoin de ce nouveau coup dur. Avec la montée en puissance des Clouds hybrides, il lui fallait pourtant absolument une couche de services d’intermédiation incontestable, susceptible de gommer les différences d’OS, d’hyperviseurs, de formats de fichiers, etc.

Ce ne sera donc pas pour cette fois, avec le risque que les utilisateurs s’orientent vers des multi-clouds indépendants…et incohérents.

Si cette couche ne voit pas le jour, les acteurs risquent de s’en mordre les doigts, car leurs clients réfléchiront désormais à 2 fois, avant de se lancer dans une architecture non fédérative, qui aura toutes les chances de se transformer en voie sans issue.

C’est le syndrome d’Unix qui resurgit.