En se recentrant sur son activité infrastructures, HPE se doit de se démarquer, de prouver qu’il n’a rien perdu de son efficacité, de démontrer que les aléas récents font désormais partie du passé. En tout cas, il doit faire preuve d’imagination.
Avec son offre « HPE Flexible Capacity », HPE va dans le bon sens.

Même si l’offre n’est pas véritablement nouvelle et on se souvient de l’ « Utility Computing » d’il y a quelques années, fondé sur la même idée, « HPE Flexible Capacity » est un très bon concept, qui ne peut que séduire les patrons de TI.

De quoi s’agit-il ?

En gros, HPE vous explique que si pour des raisons variées, vous avez décidé de maintenir ou de réintégrer vos ressources de traitement et de stockage en interne, pour des questions de sécurité par exemple, vous pourrez quand même bénéficier des avantages d’un Cloud public, sans en supporter les inconvénients.

Il vous propose pour cela, après étude et compromis établis avec vos spécialistes et experts HPE, d’installer chez vous, « On Premise », des serveurs, des moyens de stockage et les infrastructures réseaux qui répondent « a priori » à vos besoins.

Vous établissez une convention avec HPE, dans laquelle vous vous engagez à consommer un pourcentage déterminé de ces ressources, 80 % par exemple. Mais si vous avez besoin de plus de ressources, elles seront automatiquement mises en oeuvre, ce qu’HPE appelle le « buffer » et vous ne paierez qu’à la consommation.

HPE met des ressources à votre disposition, qui vous permettent  de passer sans encombre les périodes de pointes et surtout de ne pas sortir de l’épure de vos budgets. Mais que vous n’êtes pas obligés d’utiliser…et de payer.

C’est quoi une ressource ?

HPE a modélisé ses ressources avec une granularité relativement fine. Ce sera un type de serveur donné, une MV, un GB de stockage et le port de raccordement à un switch ou à un routeur.

C’est bien ce que l’on fait dans un Cloud public, mais cette fois sans subir les contrecoups des « décisions » des prestataires, qui peuvent décider à tout moment de monter en version sur leurs OS, de modifier les paramètres de calcul d’un SLA, de faire évoluer leurs infrastructures sans toutefois se préoccuper des conséquences que cela peut avoir sur la production de leurs clients.

Incontestablement, c’est une bonne idée, même si encore une fois, elle n’est pas nouvelle.

Comptablement, elle aura aussi des conséquences. Car une partie de ces ressources pourront être traitées en investissements et le reste en fonctionnement.

Selon HPE, cette stratégie peut faire faire jusqu’à 15 % d’économies aux utilisateurs, à condition bien entendu, qu’ils aient bien calibré le plancher de consommation et surtout qu’ils aient une perception claire des charges à venir.

Ca c’est du concret !

Après avoir déporté sa branche logicielle dans une structure commune avec Micro Focus, ce qui est gênant dans la mesure où de nombreux outils : administration, production, virtualisation, etc, ne seront plus chez HPE (au moins en direct), HPE revient vers ce qui a toujours fait sa force, les serveurs et les réseaux.

Décidément, les errances Apotheker sont bien terminées et c’est tout à l’honneur de Meg Whitman de faire prendre ce virage (difficile) à sa compagnie.