Blog HPE, France
1753900 Membres
7811 En ligne
108809 Solutions
Nouvel article
Joanna_K

Les applications n’ont plus le temps d’attendre après l’infrastructure

par Pascal Rabier, Category Manager Hyperconverged, Hewlett Packard Enterprise France

Les applications sont devenues si présentes et si nombreuses qu’on n’hésite plus à parler d’une économie des applications. Nouveaux usages, nouveaux services, nouveaux produits tous sont intimement liés à la production d’applications. Les approches DevOps se généralisent pour assurer à ces applications un développement et un cycle de vie continus. Pour exister une application a malgré tout besoin d’une infrastructure matérielle adaptée à ses exigences. Rien ne sert de prôner des méthodes DevOps si le matériel peine à suivre. Ce que DevOps a apporté aux  applications, l’hyper-convergence est en passe de le réaliser pour les infrastructures. 

Finissons-en avec les silos dans les datacenters ! L’évolution des Datacenter au cours de ces dernières décennies s’est accompagnée d’une complexité grandissante nécessitant des compétences de plus en plus spécialisées organisées autour des principales ressources d’infrastructures informatiques à savoir le stockage, les serveurs et les réseaux. Les datacenters se sont progressivement cloisonnés autour de silos d’expertises. Constructeurs et utilisateurs y trouvaient leur compte communiquant entre experts dans leurs propres jargons avec profusion d’acronymes. Dès lors que l’on voulait mettre en place l’infrastructure destinée à héberger une application le client n’avait pas d’autres choix que de se livrer à un véritable travail d’architecture et d’intégration en s’assurant lui-même de l’interopérabilité de l’ensemble. Entre design et mise en production toutes les opérations pouvaient prendre des semaines voire plusieurs mois. Une durée insupportable à l’heure de l’économie de la connaissance.

Intégrons les infrastructures avant de les livrer dans le Datacenter.  Une première étape a consisté à réduire les temps de design et de mise en production des configurations en opérant une pré-intégration avant livraison chez le client.  Les différents composants d’infrastructure sont assemblés et validés dans une même solution qui respecte des architectures de références définies par les constructeurs. Les systèmes convergés étaient nés. Elles ne modifiaient pas à proprement parler la conception des architectures. Les évolutions sont toujours contraintes par le dimensionnement de chaque équipement et dès que l’on souhaite partager un minimum de données entre plusieurs serveurs le SAN est encore obligatoire. Seule différence notable, le client n’a plus à réaliser lui-même l’intégration et gagne de ce fait un temps conséquent qu’il peut consacrer à des projets plus innovants. Dans de nombreux cas une couche logicielle a été rajoutée pour tenter d’unifier la gestion de l’infrastructure mais ce sont toujours les microcodes des équipements matériels qui assurent les fonctions principales. Pour que les infrastructures puissent évoluer sans à coup au rythme des applications  il fallait pousser plus loin l’intégration et prendre le parti de remonter les fonctions de gestion d‘infrastructure  dans le logiciel. C’est ce qui a été réalisé avec l’hyper-convergence.

Blog 3a.png

Donnons de l’agilité à l’infrastructure avec l’Hyper Convergence. Simplifier le déploiement et l’évolution des infrastructures, les géants du web l’ont déjà fait. Confrontés rapidement à la croissance de leurs datacenters, ils se sont employés à banaliser leurs infrastructures pour les piloter par logiciel. Ils ont ainsi ouvert la voie aux solutions de Software Defined et à l’hyper-convergence, une manière de ramener les fonctions de gestion des équipements dans le logiciel.  Si à l’origine l’idée a pu rebuter certains constructeurs inquiets de voir s’appauvrir l’intelligence de leurs équipements au profit du logiciel, aujourd’hui il n’y a plus débat. Les solutions d’hyper-convergence ont fait leur preuve et le cabinet Gartner estime que les solutions HCIS (Hyper Converged Integrated System) représenteront 35% du marché des systèmes intégrés en 2019 et que d’ici 5 ans leur utilisation se sera banalisée. Pour rappel Gartner classe dans la catégorie des « Integrated Systems »  les systèmes convergents (Integrated Stack System ISS et  Integrated Infrastructure System IIS) et les systèmes hyper-convergents HCIS. L’atout principal de l’hyper-convergence est sa grande facilité de déploiement et d’évolution L’expérience utilisateur est simplifiée. Les systèmes hyper-convergents déploient des machines virtuelles et  mettent à jour du microcode en quelques clics. Bien qu’il n’y ait pas une définition officielle de l’hyper-convergence toutes les solutions respectent quelques grands principes :

Blog 3b.png

  • Les serveurs sont virtualisés pour faciliter l’allocation des ressources
  • Le stockage de chaque serveur est mutualisé dans un pool commun et ne nécessite plus la mise en place d’un SAN externe
  • La gestion des ressources est unifiée dans un logiciel installé dans une machine virtuelle ou dans l’hyperviseur selon les solutions.
  • De nombreuses fonctions sont réalisées dans le logiciel et non plus par le microcode
  • L’évolution se fait par l’ajout de nœud et garantit la linéarité des performances. 

On distingue néanmoins deux grandes catégories de solutions d’hyper-convergence. Celles purement logiciel validées pour certains équipements matériels et d’autres proposées sous forme d’appliances contenant  tous les éléments.

Blog 3c.png

Attendons-nous à de nouveaux cas d’usage.  Avec des offres arrivant à maturité les cas d’usage vont s’élargir. Les technologies flash prennent naturellement leur place dans les solutions d’hyper-convergence et leur apportent un potentiel de puissance inestimable. Le seul réel frein à l’adoption est d’ordre organisationnel, pour encore quelques années, du fait de cycles de renouvellement rarement alignés entre serveurs et stockage. Une contrainte que n’ont pas les nouvelles applications qui constituent une cible idéale pour l’hyper-convergence à condition d’utiliser la virtualisation. Pour les applications développées pour du bare metal ou utilisant les containers, elles pourront se tourner vers la nouvelle génération d’hyper-convergence appelée « composable infrastructure ».

HPE délivre sa vision de l’hyper-convergence. La voie était naturellement tracée dès l’acquisition du logiciel Lefthand en 2008. Cette entrée dans le Software Defined Storage constituait la première étape. Devenu HPE StoreVirtual VSA, le Software Defined Storage de HPE est à présent intégré dans les solutions HPE Hyper Converged 380 et HPE Hyper Converged 250 toutes deux pilotées de surcroît par le logiciel HP OneView, qui est au cœur de la stratégie HPE d’administration de l’infrastructure matérielle en mode Software-Defined. L’histoire n’en est qu’à ses débuts et les infrastructures composables vont écrire la suite de l’hyper-convergence avec HPE Synergy. HPE fournira également en 2017 ses appliances hyper convergées avec Azure Stack, l’offre de cloud hybride de Microsoft.

0 Compliments
À propos de l'auteur

Joanna_K

Social Media Lead at HPE