Blog HPE, France
1825051 Membres
3457 En ligne
109678 Solutions
Nouvel article
Joanna_K

Infrastructure IT : les coulisses du numérique

par Mathieu De Fressenel, Vice Président Division Datacenter et Hybrid Cloud, HPE France

Le numérique nous a plongés dans un monde d’usages et d’applications. Tout est mis en œuvre pour simplifier la vie des utilisateurs, l’intuitif remplace l’apprentissage et le cloud masque la complexité des systèmes informatiques. On finirait presque par oublier le rôle prépondérant que jouent les équipements matériels. Le stockage et l’exploitation des données massives et la course à l’intelligence artificielle ont été rendus possibles grâce aux incroyables progrès réalisés en matière d’infrastructure IT et à la baisse des coûts qui en a résulté.

 Le prix ne sera plus un différenciant entre cloud public et cloud privé.  Pendant un temps on a pu imaginer que la maitrise et la responsabilité des infrastructures allaient être reléguées aux seuls fournisseurs de cloud. Depuis la notion de cloud hybride s’est imposée comme une approche équilibrée et réfléchie qui devrait perdurer. Le choix entre clouds publics et privés se pose davantage en termes de souveraineté, de réversibilité, de coûts de possession, d’expertise et de maitrise de sa ressource informatique que de prix. Les technologies Flash ont projeté le stockage dans une nouvelle dimension et les solutions comme l’hyperconvergence et l’infrastructure composable ont redonné plus d’efficacité aux datacenters. La souplesse de ces solutions est parfaitement adaptée aux impératifs de développement continu de notre époque et  aux méthodes DevOps qui l’accompagnent. D’après une étude indépendante, faire tourner des machines virtuelles sur une infrastructure convergente peut s’avérer de 22% à 49% moins couteux que sur un environnement comparable Amazon Web Services.

Les infrastructures IT constituent la fondation des entreprises numériques. Les entreprises n’ont d’autres choix que de se réinventer sous la pression du numérique et deviennent progressivement des « software companies ». L’économie, les entreprises et notre société vont devenir totalement numériques et seront extrêmement exigeantes vis-à-vis des infrastructures IT qui les sous-tendent. Le datacenter du futur sera sans aucun doute « software Defined ». Les équipements informatiques seront définis directement par le logiciel pour gagner en souplesse et en rapidité. Si d’une certaine manière on cherche à rendre invisible l’infrastructure IT, elle n’en demeure pas moins la fondation de l’entreprise numérique. Pour s’adapter à la vague du numérique cette fondation devra continuer d’innover selon plusieurs axes :

  • Evolutivité : la croissance des infrastructures doit se faire facilement sans perturber la production informatique. Elles doivent également être prêtre à accepter les innovations technologiques à venir
  • Universalité : Les solutions doivent laisser aux clients la liberté de leur choix dans le temps et offrir plus de polyvalence en supportant par exemple aussi bien des environnements virtualisés que non virtualisés (bare metal) ou des containeurs logiciels, type Docker, qui automatisent le déploiement d’applications.
  • Le recours à des interfaces de programmation (API Application programming Interfaces) doit donner la possibilité à un large écosystème d’exploiter au mieux l’infrastructure et d’y ajouter des fonctionnalités additionnelles. Le principe des APIs se généralise et permet également aux applications d’appeler des programmes spécifiques dans le cloud sans avoir à les développer soi-même.
  • La disparité des outils d’administration nuit à la simplification. Une bonne manière de réduire cette complexité est d’offrir une API unique  qui sert d’interface unifiée entre les différentes ressources IT à administrer et les éditeurs de logiciels qui veulent apporter des services d’infrastructures complémentaires.  C’est ce que permet déjà HPE Synergy qui pousse à l’extrême la simplification en provisionnant l’infrastructure avec une simple ligne de code. 

On doit réellement imaginer les infrastructures IT comme les fondations du numérique. Elles doivent être conçues pour supporter les nouvelles vagues qui s’apprêtent à déferler sur elles et en particulier la vague des objets connectésintelligent edge.png

 

L’internet des objets met les infrastructures sous pression. Déjà 8 milliards d’objets sont connectés aujourd’hui selon Gartner et 20 milliards le seront en 2020.  Autant d’objets qui vont créer d’énormes masses de données qu’il va falloir stocker, traiter et transférer. De plus en plus souvent associée à des techniques de machine learning, une multitude de capteurs joue un rôle clé dans tous les secteurs d’activité pour contrôler, mesurer, surveiller et déclencher des actions appropriées.  Dispersés sur les réseaux ces capteurs nécessitent de nouvelles approches de traitement pour agir rapidement avant même de transférer et de consolider les données dans un centre informatique central. Le traitement doit s’adapter aux nouveaux usages c’est ce que HPE entend faire avec les solutions « Intelligent Edge » pour couvrir l’espace de travail digital, les espaces intelligents (aéroports, centres commerciaux, musées etc..) et les systèmes d’objets connectés. (lire «  IoT, l’avenir aux plus rapides, agiles, adaptables »)

L’innovation est un mélange de R&D et d’acquisitions.  Avec un tel bouillonnement d’innovations technologiques la R&D d’une entreprise ne se suffit plus à elle-même pour investiguer toutes les voies possibles de manière efficace. Il faut la compléter par des acquisitions sélectives pour innover à la vitesse du marché. HPE a ainsi procédé à 5  acquisitions en moins d’un an (lire  HPE accélère dans l’infrastructure IT et le Cloud par une série d’acquisitions).  Il faut également repousser les limites technologiques pour préparer l’avenir.  C’est ce que fait HPE avec le projet « The machine » qui s’apparente au « concept car » dans l’automobile. Le premier objectif de ce projet n’est pas nécessairement de devenir à court terme un produit proprement dit. Il est destiné en premier lieu à imaginer de nouvelles architectures et à tester des technologies de pointes (mémoires persistantes, connexions photoniques) qui seront utilisées ensuite dans les solutions HPE. (lire La mémoire n’est plus si volatile que ça).  Le 16 mai 2017, HPE a ainsi révéler avoir réalisé, dans le cadre du projet The Machine », un prototype  contenant 160 téraoctets de mémoire répartie sur 40 nœuds physiques (lire l’annonce). Cette technologie « Memory Driven Computing »  place la mémoire, et non plus le processeur, au centre de l’architecture de traitement. Elle réduit considérablement le temps nécessaire pour résoudre des problèmes complexes. Avec l’accélération que l’on observe sur le big data et l’intelligence artificielle, les volumes croissants de données qui se déplacent sur les réseaux, cette nouvelle architecture devrait s’avérer incontournable  dans l’avenir et se décliner aussi bien dans des équipements « intelligent edge » que  dans de superordinateurs.

  HPE concentre ses efforts pour que les infrastructures restent en phase avec les enjeux du numérique. Il peut ainsi garantir aussi bien à ses partenaires fournisseur de cloud qu’à ses clients qu’ils disposent des meilleures fondations pour envisager sereinement l’avenir.

 

0 Compliments
À propos de l'auteur

Joanna_K

Social Media Lead at HPE