Blog HPE, France
annuler
Affichage des résultats de 
Rechercher plutôt 
Vouliez-vous dire : 

Stockage : HPE sur la première marche du podium

IDC vient de publier les chiffres du stockage du quatrième trimestre 2017. La stratégie HPE porte ses fruits et l’amène à la première place. Je profite de ces bonnes nouvelles pour revenir dans ce billet sur les raisons qui nous poussent constamment à faire évoluer nos solutions de stockage.1.png

 

Deux bonnes nouvelles à retenir concernant le stockage. Tout d’abord le marché mondial montre une belle dynamique avec une croissance de 39,3% de la capacité de stockage au quatrième trimestre 2017 (comparée au même trimestre de l’année précédente) selon les derniers chiffres publiés par IDC. Ce qui correspond à 89,2 Exaoctets, excusez-moi du peu. Deuxième bonne nouvelle HPE se hisse sur la plus haute marche du podium avec 18,9 % de parts de marché en termes de revenu (sur un marché global de 13,5 milliards de dollars au quatrième trimestre). Ces beaux résultats d’HPE sont les fruits de la stratégie mise en œuvre ces dernières années. Des acquisitions pertinentes intégrées et enrichies par HPE : 3PAR, Nimble storage, SimpliVity. A chaque fois des innovations probantes qui apportent une réelle différentiation sur le marché comme InfoSight avec Nimble qui nous fait progresser vers la notion d’infrastructure autonome et toutes les fonctions de services de données associés à l’hyper-convergence (sauvegarde, réplication) dans SimpliVity.

Pour ceux qui en douteraient encore, nous sommes bien rentrés dans l’économie de la donnée et les infrastructures de stockage se sont totalement renouvelées ces dernières années pour en tenir compte. L’enjeu du stockage est tout autant de stocker des volumes de données croissants que d’y accéder dans un temps de plus en plus court.

Le stockage adopte l’Ethernet. Depuis les débuts de l’informatique on cherche à réduire le temps d’accès aux données stockées pour éviter aux processeurs d’attendre. Minimiser le gap entre CPU et stockage est un véritable défi. On pouvait penser qu’avec la fin annoncée de la loi de Moore on aurait eu droit à une petite pause. Même pas, on est allé emprunter aux jeux vidéo leurs cartes graphiques (GPU) pour prolonger la course à la puissance et faciliter l’apprentissage des systèmes de Machine Learning et de Deep Learning. Le stockage a dû évoluer. A côté des architectures monolithiques, qui avaient fait le bonheur des « anciens », on a vu surgir des architectures distribuées qui multiplient les accès. Un design qui augmente les entrées/sorties et qui facilitent la scalabilité. Les solutions Hadoop, NoSQL et l’hyper-convergence fonctionnent sur ce principe. Autre point à noter également, toutes ces solutions de stockage sont basées sur l’Ethernet.  Il est bien loin le temps ou le SAN et le Fiber Channel étaient incontournables. A présent Ethernet offre jusqu’à 100 Gb/sec (là où le FC stagne à 32 Gb/sec) et supporte les différents modes de stockage (fichier, bloc et objet) et se distingue du FC qui ne supporte que le mode bloc. Ces nouvelles architectures soulignent l’importance du réseau dans les performances. La latence est un véritable sujet et tout est mis en œuvre pour la diminuer. C’est la raison du partenariat que nous avons avec Mellanox pour réaliser des réseaux à faible latence. (voir le billet sur le sujet).

La mémoire Flash se généralise. Ce problème de latence nous la retrouvons au niveau du support de stockage. Les améliorations notoires de performances avec les mémoires flash font ressortir là encore les problèmes de latence. Jusqu’en 2014 on utilisait encore des bus SAS et SATA qui avaient été conçus pour des disques magnétiques. L’utilisation du protocole NVMe (Non Volatil Memory express) est adapté au Flash et diminue la latence. Ce protocole est étendu au réseau des Datacenter avec NVMe over Fabric. Plus de contraintes liées au bus PCI express en termes de distance et du nombre d’équipements connectés. On peut ainsi bénéficier des mécanismes de communication de mémoire à mémoire (RDMA) au sein du Datacenter en faisant du RoCE (RDMA over Converged Ethernet).  Améliorer le temps d’accès aux données est une course sans fin. Même si le gap entre Mémoire central (RAM) et stockage persistent (SSD NAND), les écarts de latence sont encore énormes. C‘est pourquoi nous travaillons sur une nouvelle classe de stockage persistent, le Storage Class Memory SCM. Le NVMe va devenir incontournable avec SCM et on prévoit que d’ici 2020 plus de 50% des serveurs seront équipés de NVMe et 40% des stockage full flash.

2.png

L’hyper convergence pour aller vers DevOps. Le récent Magic Quadrant du Gartner sur l’hyper convergence m’avait donné l’occasion de revenir sur l’offre SimpliVity.  Pour compléter ce que j’avais écrit, je préciserai que l’intérêt de l’hyper convergence va au-delà de la scalabilité et de la performance. Il est conçu autour de la virtualisation (les serveurs sont virtualisés, le stockage est virtualisé) et de ce fait cette couche d’abstraction entre le matériel et le logiciel facilite le pilotage automatisé des infrastructures par l’application dans une approche DevOps. Que l’on parle de Software Defined ou d’infrastructure as a code, la finalité est la même : traiter le matériel comme du code et participer au processus de développement et d’intégration continus (CD/CI). Pour ceux qui s’intéressent à l’infrastructure as a code (IaC) je les invite à lire le billet « Infra as a code » : Les infrastructures IT ont entamé leur révolution.

twitter.PNG

DCHC Category Lead France HPE Evangelist - Hewlett Packard Enterprise | Storage / Servers /Network|BD/Comics|Science Fiction Movies|Polars|Vinyl 70/80
0 Compliments
À propos de l'auteur

CFontaine

#TransfoNum #Startup #IoT #Tech #BigData #SocialMedia #IA #VR #Marketing #Storage #Servers #DataCenter #Networking