Le Cloud va progresser, c’est une évidence. Mais il ne faut pas mettre la charrue avant les bœufs et s’imaginer que les clients vont tous se précipiter chez les prestataires, au prétexte qu’ils veulent faire des économies ou améliorer la résilience de leurs installations. Il ne faut pas confondre réalité du terrain avec matraquage marketing.
Cisco est un équipementier qui s’est résolument tourné vers le Cloud et on ne peut s’attendre de sa part à ce qu’il considère que le Cloud est mort et qu’il nous faut trouver d’autres solutions.
Mais de là à affirmer que dans moins de trois ans, le Cloud aura remplacé les datacenters traditionnels, il y a une marge que même les plus optimistes ne franchiront pas.
Car Cisco ne semble pas tenir compte de la réticence « viscérale » qu’expriment de nombreux utilisateurs qui ne veulent pas se séparer de leurs équipements physiques ou tout simplement qui n’ont aucune confiance en des prestataires, qui même prestigieux, leur apparaissent souvent comme des prédateurs potentiels.
Mais Cisco reste « droit dans ses bottes » et s’appuie sur des prévisions de trafic de données, qui selon lui vont faire la part belle aux datacenters de Cloud, plutôt qu’aux installations privées traditionnelles.
Globalement, Cisco estime que le trafic généré par les datacenters va considérablement augmenter et atteindre 19,5 zettabytes par an, à partir de 2021 (6 ZB en 2016). Le zettabytes étant chez Cisco et les autres, le millier de milliards de milliards de bytes, soit en plus court, 1021.
Evidemment, malgré leur talent, les DSI auront du mal à les faire tenir sur des disquettes… Car si on empilait les disquettes nécessaires en question, elles représenteraient 260 fois la distance de la terre à la planète Mars… (mais encore faut-il se souvenir de ce qu’est une disquette…).
Cisco considère que 95 % de ce trafic sera issu des datacenters Cloud, du fait de l’expansion des IoT, des données issues des véhicules intelligents, des « smart cities », etc.
En fait, les chiffres fournis par Cisco sont ambigus. Et ces 95 % prêtent à confusion.
Pour l’équipementier, de nouveaux datacenter dits « hyperscale » vont fortement se développer, qui seront hébergés dans les Clouds publics et se compteront 628 en 2021, contre 338 en 2016.
Ces datacenters géants devraient, toujours selon Cisco, représenter 55 % de tout le trafic de données.
Et Cisco de préciser ce qu’il appelle un opérateur de « Cloud hyperscale datacenter » : un prestataire IaaS ou PaaS (AWS, Rackspace, IBM…) qui fait plus d’1 milliard $, mais aussi un prestataire SaaS (Salesforce, Google, Microsoft, Oracle) qui fait plus de 2 milliards $, un spécialiste de la recherche, des réseaux sociaux (Facebook, Apple…) qui fait plus de 4 milliards $, voire encore un prestataire spécialisé dans le commerce électronique (Amazon, eBay, Alibaba) qui fait plus de 8 milliards $ de chiffre d’affaires.
Selon lui, ces datacenters géants vont capter 55 % de tout le trafic issu des datacenters, qu’ils soient accessibles en Cloud ou non. Et c’est cela qui de notre point de vue est important. En gros que Cisco considère que la moitié du trafic de data sera pris en charge par ces « monstres » de données, soit une augmentation de 16 % en trois ans.
Ce qui par parenthèse, éloigne un peu plus les « petits joueurs » qui n’auront pas les moyens d’investir dans ces infrastructures.
Des chiffres qui donnent le vertige
Mais il n’y a pas que cela.
Cisco pense que le Big Data atteindra 403 Exabytes en 2021, ce qui peut paraître beaucoup, mais ne représente somme toute que 5 % du trafic total de données, ce qui tend à prouver que l’on est loin des prévisions stratosphériques suggérées par certains consultants : Gartner, Forrester, etc.
Par contre ces 403 EB représenteront 30 % des volumes de données traitées dans les datacenters, ce qui correspond à une autre prévision, celle qui veut qu’il y ait 4,5 fois plus de données stockées dans les « devices », postes de travail, capteurs, etc, à cette échéance, que dans les datacenters.
Pour ce qui nous concerne, nous retiendrons 3 points de ces prévisions « gargantuesques » : le volume de données générées par les datacenters qui va dépasser la limite symbolique des zettabytes (après, il faudra se familiariser avec les yottabytes, soit 1024 bytes), la confirmation des datacenters géants qui vont prendre plus de la moitié du trafic de données et le poids relatif du Big Data, en contradiction, avec ce que l’on nous annonce depuis des années.
Mais de toute façon, les prévisions sont aussi là pour être contredites…
Commentaires récents