Blog HPE, France
annuler
Affichage des résultats de 
Rechercher plutôt 
Vouliez-vous dire : 

Quelles évolutions pour les serveurs informatiques à 3 ans ?

 

par Didier Kirszenberg, Responsable du Business Developpement HPE France

 

Le monde informatique s’accélère de plus en plus. Là, où de nouveaux standards ou de nouvelles méthodes mettaient des dizaines d’années à s’imposer, de nouveaux standards comme S3 ou Kubernetes se sont imposés dans un temps très court.GettyImages-1019621656 a.png

Les systèmes informatiques doivent évoluer pour répondre dans les 3 ans à venir à deux grandes tendances sur l’utilisation des systèmes d’informations :

  • D’une part, la quantité de données à traiter s’accroit et demande des temps de traitement de plus en plus courts,
  • D’autre part, les logiques de développement changent, entrainant de plus en plus de nouvelles applications à mettre en production et de changements sur celles qui sont déployées.

Chacune de ces 2 tendances a ses impacts particuliers sur la façon dont doivent évoluer les systèmes d’informations et donc les serveurs qui le constituent.

A) Augmentation des volumes

Ceci a plusieurs impacts technologiques : d’une part, il faut souvent augmenter la puissance de traitement dans des proportions sans rapport avec les gains de performance individuelle des processeurs, et d’autre part, cela amène un nouvel enjeu sur la consommation électrique nécessaire pour faire fonctionner le système.

1) Augmentation de la capacité de traitement

2 grandes stratégies permettent d’augmenter la capacité de traitement, le scale-in et le scale-out.

  • Pour le scale-in il s’agit de faire croitre les capacités du système unitaire.

>>> Mémoire :

Ceci peut se décliner sur plusieurs sujets dont le premier est la mémoire. HPE avait déjà un leadership dans ce domaine avec ses systèmes Superdome. Ceci a été renforcé par notre achat de SGI, l’autre leader des systèmes à grande mémoire partagée. L’ensemble HPE+SGI a donné naissance au Superdome Flex, qui reprend les meilleurs éléments de nos grands systèmes Unix dans des systèmes x86. Au-delà de traiter des problématiques spécifiques comme certains sujets de compliance ou des produits comme SAP HANA, ce type de systèmes peut permettre la mutualisation de grosses bases de données pour optimiser les licences. Ces systèmes existent déjà, mais nous pensons qu’ils peuvent être amenés à se développer dans les 3 ans à venir.

>>> GPU :

On voit également apparaitre ce besoin pour les systèmes à base de GPU, sous réserve que les développements s’y prêtent et aient bien été parallélisés. HPE fait la différence avec ses systèmes Apollo 6500 qui peuvent monter à 8 GPU avec le choix d’une interconnexion PCi ou NVlink. Ces systèmes sont particulièrement équilibrés en I/O, comme l’ont démontré les tests comparatifs de la SG. Nous pensons qu’ils vont se développer d’une part avec le deep-learning et d’autre part avec le machine learning sur GPU. Nvidia a actuellement un clair leadership sur le sujet mais il est possible qu’AMD revienne dans la course dans les 3 ans en particulier en jouant le couplage entre processeur et GPU. Par ailleurs, Intel essaye de segmenter le marché en proposant ses VPU.

>>> IO :

Les IOs devant suivre l’augmentation des traitements, on devrait aussi voir significativement évoluer les systèmes utilisés pour le stockage des données chaudes dans les 3 ans à venir. Les solutions de mémoire persistante sont en train d’arriver sur le marché. Cette technologie rend résilients des modules travaillant à la vitesse de la mémoire pour qu’elles servent aussi de disques de stockage. Intel délivre aujourd’hui la technologie 3DcrossPoint (3DXP) mais de nombreuses autres technologies sont en train d’être mises au point sur ce segment (PCM, MRAM, STT-RAM, FeRAM, RRAM, NRAM). Quand les prix de ces technologies baisseront, il est possible que la mémoire persistante remplace les SSD, comme les SSD ont remplacé les disques plateau sur la donnée chaude.

  • Pour le scale-out il s’agit de faire croitre la puissance globale en ajoutant de petits systèmes.

>>> Historiquement cette approche était le propre des systèmes HPC, mais cette logique se développe notamment avec les solutions du Big Data ou du Software Defined Storage. HPE avait déjà renforcé son expertise HPC avec l’achat de SGI mais notre achat récent de Cray fait de nous le leader incontesté de ce segment de marché. Pour délivrer une efficacité maximale, le Scale-Out doit être regardé dans son ensemble en incluant les aspects réseaux et hosting.

2)  Optimisation de la puissance électrique

  • Ceci peut se jouer à plusieurs niveaux : au niveau des éléments unitaires comme les processeurs, au niveau des salles informatiques et à terme en revoyant complétement la façon dont sont conçus les serveurs. Ces approches sont importantes pour les démarches écoresponsables de nos clients.
  • Les technologies de processeur évoluent en permanence :

>>> Afin de maitriser leur enveloppe thermique, les fabricants de processeurs ont plus travaillé sur l’ajout du nombre de cœurs que sur l’augmentation de la fréquence. AMD est ainsi revenu dans la course face à Intel, qui prévoit également des développements dans ce sens. Ceci est pour nous à pondérer en fonction de l’applicatifs car de plus en plus de logiciels sont facturés aux cœurs et pas aux processeurs. Pour certaines applications, il peut être bon de réduire la taille des processeurs sous réserve de ne pas remplir les salles de petits serveurs. Nous devrions trouver de plus en plus de cas d’usage pour des technologies de type Moonshot spécialement optimisées pour apporter densité et faible consommation électrique.

>>> Parallèlement, on voit se développer les processeurs programmables type FPGA. Historiquement on les trouvait rarement dans les entreprises car les compétences pour les coder étaient rares et les solutions spécifiques difficiles à maintenir. Le paradigme est en train de changer car certains éditeurs (aujourd’hui plutôt des start-ups) proposent sur des sujets ciblés des solutions packagées et supportées. A titre d’exemple, nous faisons avec Intel la promotion de la société Swarm64 qui permet d’enrichir un produit open source comme Postgres avec la capacité à traiter des cubes en mémoire et donc de challenger des solutions comme Terradata.

  • Coté architecture globale, nous disposons d’une expertise complète dans la mise en œuvre de solutions énergétiques optimisées, indispensable dans les dossiers de type HPC. Nous avons ainsi des gammes de serveurs à refroidissement à eau. Nous travaillons en étroite collaboration avec des acteurs comme Schneider pour optimiser nos racks ou des start-ups avec des solutions à bain d’huile non conductrice pour récupérer plus facilement la chaleur générée.
  • D’ici 3 ans, on commencera à voir les premiers systèmes à base de la technologie GenZ. L’un des apports de ce nouveau protocole est la capacité à remplacer le cuivre des serveurs par de la fibre optique et de réduire très significativement la consommation électrique globale.

B) Augmentation de la fréquence des déploiements

Ceci a également plusieurs impacts technologiques : de nouvelles façons d’appeler les ressources, une plus grande variabilité des sollicitations, des besoins accrus de disponibilité des services dans des contextes parfois moins homogènes.

1) Nouvelles façons d’appeler les ressources

En dehors du domaine du HPC, les clients ont généralisé la virtualisation. Nous constatons que de plus en plus des nouveaux workloads utilisent les containeurs ou du bare metal qui ne fonctionnent pas de façon optimale en environnement virtualisé.  A titre d’exemple, un déploiement « bare metal » dans un contexte virtualisé demande rarement des évolutions ou du déprovisionning du serveur, ce qui est intéressant à avoir pour des environnements containeurs ou BareMetal. Par ailleurs les nouveaux développements « cloud » sont en général API driven et prévoient un appel des ressources dont ils ont besoin.

C’est d’ailleurs l’une des définitions que l’on peut donner du « Software Defined » où c’est l’applicatif qui appelle et consomme les ressources dont il a besoin. Nous pensons que ce type de workloads va largement se développer dans les 3 ans à venir ce qui justifiera la mise en place de systèmes Composables (au sens des grands cabinets d’analystes), c’est-à-dire capable d’être entièrement pilotés par des APIs pour allouer la puissance de calcul et les disques (avec plus tard séparation de la mémoire et du CPU), mais aussi les chemins réseaux de niveau 2 et le stockage associé (en software defined Storage dans le système ou avec un système de stockage sous son contrôle).

Ces systèmes composables ont la particularité de pouvoir facilement être réutilisés et adaptés pour différents workloads, ce qui est particulièrement intéressant vu l’accélération des renouvellements applicatifs et l’avancement du DevOPs avec les démarches de type Fail-Fast. Pour atteindre cet objectif un système composable doit être modulaire et prêt pour le nouveau protocole GenZ mais la clef de la valeur réside dans sa capacité à répondre aux API des utilisateurs.

2) Variabilité des sollicitations de ressources

Avec une plus forte évolution des demandes, le capacity planning va devenir dans les 3 ans de plus en plus complexe pour les organisations avec des risques de sous-allocation ou de sur-allocation. Nous pensons que les systèmes payés à l’usage vont se développer.

HPE a d’ailleurs prévu que toutes ses offres seront disponibles dans ce mode d’ici 2022. Cette offre nommée Greenlake apporte à la fois la simplicité et le paiement à l’usage du Cloud public et la sécurité et la flexibilité du On-premise. Elle se différentie positivement des grands services providers avec une clef de refacturation simple et partagée, apportant une vraie prédictibilité de la facturation. Cette logique sera d’autant plus efficace qu’elle sera appliquée à des building blocks plutôt qu’à des éléments unitaires.

3) Besoins accrus de disponibilité

Le développement des nouveaux services ira sans doute de pair avec une plus grande diversité de demandes et de socles techniques tant en types qu’en versions. Ceci devrait complexifier la charge de support et de matrice de compatibilité des équipes. Afin de palier cela, il nous parait important de faire évoluer le socle technique vers des systèmes disposant de capacités d’auto analyses, pour non seulement réduire mais même anticiper les pannes. HPE travaille actuellement pour étendre le système Infosight acquis avec le rachat de Nimble à l’ensemble de ses systèmes. S’appuyant sur une base de connaissance mondiale des problèmes couvrant non seulement le système lui-même mais son environnement, Nimble Storage a démontré que l’on peut fonctionner sans support de niveaux 1 et 2. C’est ce niveau de service qu’HPE veut progressivement apporter sur la totalité de ses offres.

Pour l’automatisation des workloads Big Data et IA, HPE a racheté la société BlueData qui est leader sur le sujet.

 

Le présent document ne fait que lister les enjeux que nous voyons et HPE propose des présentations plus spécifiques sur chacun des points listés.

  • Workloads In-Memory et systèmes spécifiques HPE sur ce workload
  • Workload GPU et offre HPE dans le domaine de l’IA, avec éventuellement visite de notre centre de compétence européen sur le sujet à Grenoble.
  • Développement des solutions de mémoire persistante avec présentation des différentes initiatives dans le domaine
  • Retour d’expérience dans le domaine du HPC avec l’apport des systèmes de SGI  et à terme Cray
  • Update sur les roadmaps processeurs
  • Point sur la Roadmap Moonshot
  • Présentation de solutions FPGA comme Swarm64 (base de données analytique)
  • Présentation de nos expertises sur l’optimisation des salles informatiques
  • Présentation du nouveau standard GenZ
  • Présentation de systèmes composables et échange sur l’impact des nouveaux workloads sur la notion de déploiement Bare-Metal
  • Présentation des offres de consommation à l’usage Greenlake et échange sur les besoins supplémentaire d’API d’accès aux services
  • Présentation des roadmaps Infosight
  • Présentation de l’offre BlueData 

 

À propos de l'auteur

Joanna_K

Social Media & Digital MKTG HPE France Publishing on behalf of various authors