Dans le monde du stockage d’archives, la bande est le roi incontesté. Alors que les progrès des technologies telles que le stockage de l’ADN et du verre offrent un aperçu de l’avenir, il n’y a actuellement aucune alternative capable de rivaliser avec la bande pour la fiabilité, la longévité et le coût.
Cela dit, les entreprises sont toujours confrontées à un certain nombre de défis en matière de gestion et de préservation des données à long terme, sous forme de stockage dans le cloud ou sur site.
TechRadar Pro s’est entretenu avec David Trachy, directeur principal des marchés émergents de la société de stockage Spectra Logic, pour découvrir comment le stockage perpétuel hybride pourrait résoudre certains des problèmes de données les plus délicats auxquels les entreprises sont confrontées aujourd’hui.
Sommaire
À quoi ressemble l’avenir du flash? Quel impact cela aura-t-il sur l’industrie du stockage?
La technologie à la croissance la plus rapide sur le marché du stockage reste la mémoire flash NAND. Il possède des capacités de durabilité et de rapidité qui sont appréciées à la fois dans les segments des consommateurs et des entreprises, mais l’objectif principal de l’innovation pour l’avenir du marché du flash réside dans la recherche d’une plus grande capacité. Bien que la transition de la NAND planaire (2D) à la 3D NAND ait semblé très prometteuse à l’époque, les gains de capacité futurs s’avèrent non viables, car l’augmentation des écritures réduit simultanément le nombre de fois que la cellule peut être programmée, ce qui a un impact sur la capacité flash à long terme. Une autre option pour augmenter la capacité du flash consiste à réduire la taille de la cellule. Mais étant donné que 19 nanomètres (nm) est aussi petit que l’industrie prévoit de produire, et que nous sommes déjà à 20 nm sur la feuille de route flash, cela ressemble également à une impasse.
La meilleure opportunité de réaliser des gains de capacité flash est d’augmenter le nombre de couches sur une puce; Cependant, il existe des problèmes complexes lors de la création de pièces de plus de 100 couches. Pour cette raison et d’autres, aucun fournisseur ne parle de construire au-delà de 136 couches dans une pièce à pile unique. Ainsi, nous prévoyons que les futurs gains de capacité en flash seront principalement obtenus en empilant des chaînes de pièces ensemble. La technique d’empilement de chaînes consiste à connecter des matrices flash multicouches pour créer une puce flash avec plus de couches. Cela peut entraîner une diminution des coûts en mode flash. Les fournisseurs de systèmes et de cloud profiteront de l’interface basée sur les zones (permettant le placement physique des données dans des zones correspondant aux besoins de performance des données) pour obtenir une durée de vie plus longue, de meilleures performances et une plus grande capacité de leurs actifs Flash.
Quelles influences du marché ont eu le plus grand impact sur le disque magnétique? Qu’est-ce qui nous attend pour le disque?
Les volumes des expéditions de disques durs expédiés au cours des quatre derniers trimestres ont connu une baisse d’environ 20% en volume – 255 millions, contre 328 millions l’année précédente. Cette baisse peut être attribuée à l’érosion de la technologie flash sur les marchés où le disque était autrefois le seul choix. Par exemple, la plupart des ordinateurs portables utilisent désormais le stockage flash. Plus récemment, la nouvelle génération de systèmes de jeu est tous basés sur le flash. Malgré le déclin de la catégorie des disques 2,5 pouces, la catégorie des lecteurs de disque 3,5 pouces nearline a connu des augmentations d’une année sur l’autre en termes d’expéditions de capacité et de volume. Il représente désormais plus de 50% de tous les revenus des disques et est principalement vendu aux grands magasins informatiques et aux fournisseurs de cloud. Le développement d’un produit unique, avec quelques variantes, a permis aux sociétés de disques de concentrer leurs ressources, leur permettant de rester rentables même si une bonne partie de leur activité traditionnelle s’érode.
Avec un certain nombre d’avancées en cours et une longue feuille de route LTO, il semblerait que la bande continue de ne montrer aucun signe de disparition. Quels sont les principaux points à retenir en termes d’innovation en matière de bande et quelle est la prochaine étape pour la bande?
La bande est certainement là pour rester. C’est un support parfait pour l’archivage à long terme. Et grâce à sa capacité d’intervalle d’air, la bande a sans aucun doute aidé des milliers d’entreprises à survivre aux attaques de ransomwares. Les plus grandes organisations du monde – y compris les fournisseurs de cloud – utilisent des bandes. En fait, nous assistons à une résurgence de la bande car il n’y a aucun support de stockage utilisé aujourd’hui dans le monde qui a une plus grande densité et un coût inférieur à la bande, point final.
Alors que le secteur des bandes numériques pour la sauvegarde des systèmes de disques primaires a connu des baisses d’année en année (alors que la sauvegarde informatique est passée à la technologie sur disque), le besoin de bandes sur le marché des archives à long terme continue de croître. La technologie des bandes est bien adaptée à cet espace car elle offre les avantages d’une faible empreinte environnementale à la fois sur l’espace au sol et sur la puissance; un niveau élevé d’intégrité des données sur une longue période de temps; évolutivité illimitée; et un coût par gigaoctet de stockage bien inférieur à celui de tout autre support de stockage.
La technologie LTO (Linear Tape Open) a été et continuera d’être la principale technologie de bande. Le consortium LTO assure l’interopérabilité pour les fabricants de lecteurs de bande et de supports LTO. En 2018, la huitième génération de cette technologie a été introduite, offrant une capacité native (non compressée) de 12 To par cartouche. On s’attend à ce que plus tard en 2021, la neuvième génération, LTO-9, soit introduite à 18 To (non compressé): une augmentation de capacité de 50% par rapport au LTO-8. Le consortium LTO fournit une feuille de route LTO très robuste en termes de produits futurs jusqu’au LTO-12 à un point de capacité de 144 To sur un seul support.
Un problème historique avec la bande a été la perception qu’il est «difficile à gérer». HSM (Hierarchical Storage Management) a tenté de résoudre la complexité de la bande en fournissant une interface de fichier réseau standard à une application et en demandant au HSM de gérer le système de bande. Ce qui est nécessaire pour rendre la bande beaucoup plus facile à gérer, c’est une interface qui accepte de longs temps de récupération avec la capacité de spécifier qu’un nombre illimité d’entités de données doit être récupéré à la fois. Une nouvelle interface standard de facto est apparue qui, lorsqu’elle est prise en charge par les fournisseurs de systèmes de bandes, augmenterait considérablement le nombre d’applications qui pourraient utiliser des bandes. Une interface S3 serait présentée à l’application et toutes les données stockées sur bande seraient mappées comme étant dans un niveau hors ligne. L’application est cachée de tous les détails de la gestion des bandes et, en même temps, le système de bandes ne pouvait pas seulement gérer le système de bandes, mais pourrait fournir des fonctionnalités avancées telles que la multi-copie, la gestion des bandes hors site et la remasterisation – le tout de manière transparente pour L’application. En ayant un système de bande prenant en charge cette interface, d’innombrables applications S3 pourraient utiliser la bande sans nécessiter de modifications. Un futur produit a déjà été annoncé avec cette capacité, et un autre devrait être publié en 2021.
Quels sont les facteurs décisifs pour les organisations lorsqu’il s’agit de choisir entre le stockage cloud et le stockage sur site et quelles prédictions pouvez-vous partager sur ce sujet?
Récemment, il a été question, même de la part des fournisseurs de cloud, de l’apparition de nouveaux systèmes hybrides (stockage perpétuel essentiellement hybride), qui permettront d’utiliser les capacités de traitement dans le cloud et / ou sur site, tout en assurant la rétention à long terme. des données brutes et raffinées de ce traitement, indépendamment de l’endroit où ce traitement a lieu. Les deux niveaux de stockage sont définis comme le niveau du projet et le niveau perpétuel. Le stockage du projet sera toujours résident là où les données sont actives / en cours de traitement, que ce soit dans le cloud ou sur site. Cependant, avec l’avènement d’une nouvelle génération de solutions de stockage, les organisations auront désormais le choix, quel que soit l’endroit où se trouve le niveau du projet, quant à savoir si le niveau perpétuel (avec des données inactives) doit être situé dans le cloud ou sur site. .
La première décision qu’une organisation doit prendre lorsqu’elle décide de la localité du projet et des niveaux perpétuels consiste à déterminer où effectuer le traitement – dans le cloud ou sur site. De nombreux facteurs doivent être pris en compte pour prendre cette décision, tels que le coût total de possession, la polyvalence que chacun offre à l’organisation et la préférence commerciale pour les dépenses en capital ou les dépenses d’exploitation. Lors de l’analyse des avantages et des inconvénients d’une solution de niveau perpétuel dans le cloud ou sur site, les organisations doivent se poser plusieurs questions, telles que: 1) Quelle quantité de données sera stockée? 2) Combien de temps les données devront-elles exister? 3) À quelle fréquence et quelle quantité de données devront être restaurées? 4) À quelle vitesse les données doivent-elles être restaurées? 5) Dans quelle mesure mon organisation est-elle engagée à long terme envers un fournisseur de cloud particulier? Et 6) Avons-nous les installations et le personnel nécessaires pour maintenir une solution sur site?
Une fois que la décision a été prise de traiter dans le cloud ou sur site ou une combinaison des deux, la prochaine décision à prendre est de savoir où localiser le niveau perpétuel – dans le cloud ou sur site. L’exécution de processus dans le cloud nécessite que les données du projet se trouvent dans un pool de stockage en ligne du fournisseur de cloud respectif.
Le scénario idéal pourrait être que les clients aient la possibilité d’exécuter le niveau de projet sur site ou dans le cloud, tout en s’assurant que le système de stockage perpétuel est sur site. Cela nécessiterait un système de stockage de nouvelle génération. Envisagez un futur système de stockage sur site dans lequel toutes les données brutes lui sont envoyées au lieu du cloud et, lors de la réception de ces données, effectuent deux actions. Il «synchroniserait» d’abord les données avec le cloud, afin que le traitement cloud se produise sur ces données, et ensuite, il créerait une copie d’archive de ces données sur un disque ou une bande sur site. De plus, le système peut être programmé pour supprimer automatiquement les données dans le cloud après une période prédéfinie ou le client peut supprimer manuellement les données une fois le traitement terminé.
Que pouvez-vous nous dire sur les technologies futures et qui les mèneront à maturité?
Étant un marché de 50 milliards de dollars par an, l’industrie du stockage a toujours attiré et continuera d’attirer des investissements de capital-risque dans les nouvelles technologies. Beaucoup de ces efforts ont promis une amélioration de l’ampleur d’un ou plusieurs des attributs de base du stockage, à savoir le coût (par capacité), la faible latence, la bande passante élevée et la longévité. Pour être clair, au cours des 20 dernières années, une petite partie de l’investissement global en capital-risque a été consacrée au développement de périphériques de stockage de bas niveau, la majorité étant consacrée au développement de systèmes de stockage utilisant des périphériques de stockage existants dans le cadre de leur solution. Ces développements s’alignent davantage sur le marché du capital-risque dans la mesure où ils sont principalement basés sur des logiciels et nécessitent relativement peu d’investissements en capital pour atteindre la production. De plus, ils présentent un risque moindre et une mise sur le marché plus rapide car ils n’impliquent pas de percées scientifiques associées aux matériaux, à la lumière ou au phénomène de physique quantique.
Une grande partie de la recherche fondamentale pour le développement avancé de périphériques de stockage révolutionnaires est financée par une université ou par le gouvernement ou est financée par le marché des entreprises à titre purement de démonstration de concept. Par exemple, une annonce a été faite concernant le stockage de données en cinq dimensions sur un morceau de verre ou un cristal de quartz capable de contenir 360 To de données, littéralement pour toujours. Les efforts de développement avancés se poursuivent pour tenter de stocker les données dans des hologrammes, une technologie qui, depuis longtemps, est plus prometteuse que résultats. Un autre groupe étudie le stockage de données à l’aide d’ADN et, tout récemment, une entreprise a reçu 40 millions de dollars pour une idée de stockage de données en faisant continuellement rebondir les données entre des satellites spatiaux en orbite terrestre basse.
Les développements au niveau quantique incluent le stockage de données en contrôlant le «spin» des électrons. Bien que ces efforts et d’autres aient le potentiel de révolutionner le stockage de données, il est difficile de croire que l’un d’entre eux soit suffisamment mature à ce stade pour avoir un impact significatif sur l’univers numérique au moins jusqu’en 2030. Historiquement, de nombreuses technologies de stockage se sont révélées prometteuses dans la phase de prototype , mais n’ont pas été en mesure de faire le saut vers des produits de production qui répondent au coût, à la robustesse, aux performances et, surtout, à la fiabilité des technologies actuelles sur le marché. Compte tenu de l’avènement des fournisseurs de cloud, la possibilité de commercialiser certaines de ces technologies pourrait devenir plus facile.