Les chercheurs d’IBM, associés aux ressources de fabrication de Sony, ont réussi à imaginer et à construire une bande magnétique de 330 TB de capacité, soit 7 fois celle de la future LTO-10 que l’on n’attend pourtant pas avant les années 2020. Mais faut-il croire à ce exploit et vous, qui êtes patron du TI, quel intérêt peut-il présenter pour vos installations.

Aux limites du magnétique

On peut certes y croire, car IBM est coutumier des annonces de technologies « extraordinaires », mais qui n’ont pas nécessairement des suites opérationnelles concrètes.

Aussi serons-nous très prudents quant à l’accueil qu’il convient de réserver à cette technologie, qui de notre point de vue est plus de la « communication » destinée à démontrer le « leadership » d’IBM dans le domaine de l’enregistrement magnétique, qu’une réalité concrète, sur laquelle les responsables de TI vont pouvoir miser.

Cette bande aurait, selon IBM, une capacité de 330 TB de données non compressées, sur un support ¼ de pouce, obtenu grâce à un processus de pulvérisation (sputtered) sur un substrat et non pas par la méthode traditionnelle à base de BaFe.

Les chiffres sont quand même étonnants, car une telle bande nous permettrait de stocker 330 millions de livres d’1 million de caractères, soit de plus de 4 à 500 pages chacun.

Toute la question est de savoir si on pourra ensuite relire les données une fois qu’elles auront été enregistrées et si le support aura une durée de vie suffisante et crédible.

On a connu par le passé des technologies tout aussi révolutionnaires, comme les DAT 4mm et les bandes Sony 8 mm à enregistrement hélicoïdal, elles-aussi parées de performances exceptionnelles pour l’époque (une dizaine de Gibabytes en mode compressé), mais qui avaient l’inconvénient de se dégrader et de ne plus être lisibles au bout de quelques cycles. Technologie qui a donc été abandonnée.

Car les bandes magnétiques ne sont destinées qu’à la sauvegarde de contenus et la première qualité qu’on leur demande dans ce contexte, c’est d’abord d’être fiables.

Pour ce qui est du nouveau prodige d’IBM, il faut aussi voir que la densité d’enregistrement surfacique a été portée à 200 Gigabits par pouce carré, soit plus de vingt fois celle des bandes les plus performantes d’aujourd’hui, ce qui a obligé IBM et Sony à concevoir non seulement une nouvelle tête de lecture/écriture dotée d’un servo-mécanisme révolutionnaire pour garantir un positionnement fiable sur les données à lire ou à écrire, mais aussi un algorithme de traitement du signal spécifique compatible avec ces densités, inimaginables il y  a encore 4 ou 5 ans.

Quel intérêt pour le TI

On peut se demander quelle est la motivation d’un patron de TI de s’intéresser à ce type de bande, en dehors de la possibilité de l’évoquer lors des « dîners en ville ». Nous pensons qu’elle est grande, car tout le monde oublie qu’il existe encore des salles machines, avec des ordinateurs, des imprimantes et des données à sauvegarder. Tant que toutes ces ressources resteront à proximité, il aura à traiter la problématique du « backup » et de la restauration. Qui comme chacun le sait sont de plus en plus difficiles à effectuer, tant les fenêtres d’intervention sont désormais étriquées.

Avec le Big Data, l’usage des mobiles et l’augmentation pharamineuse des volumes de données, le problème est infiniment plus complexe que par le passé, du temps « béni » des bandes ½ pouce d’IBM, avec ses fameuses 2401 à … 20 MB.

Le problème est réel et tout ce qui bouge dans ce domaine doit donc être analysé avec intérêt. Même si cela ne donne rien concrètement. Histoire de ne rien rater…