- Community Home
- >
- HPE Community, France
- >
- Blog HPE, France
- >
- Infrastructure IT : les coulisses du numérique
Catégories
Company
Local Language
Forums
Forum de discussion
Forums
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
Forum de discussion
Forums
Forum de discussion
Forum de discussion
Forum de discussion
Forums
Forum de discussion
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
- BladeSystem Infrastructure and Application Solutions
- Appliance Servers
- Alpha Servers
- BackOffice Products
- Internet Products
- HPE 9000 and HPE e3000 Servers
- Networking
- Netservers
- Secure OS Software for Linux
- Server Management (Insight Manager 7)
- Windows Server 2003
- Operating System - Tru64 Unix
- ProLiant Deployment and Provisioning
- Linux-Based Community / Regional
- Microsoft System Center Integration
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Communauté
Contact
Forums
Blogs
- S'abonner au fil RSS
- Marquer comme nouveau
- Marquer comme lu
- Marquer
- S'abonner
- Page imprimable
- Signaler un contenu inapproprié
Infrastructure IT : les coulisses du numérique
par Mathieu De Fressenel, Vice Président Division Datacenter et Hybrid Cloud, HPE France
Le numérique nous a plongés dans un monde d’usages et d’applications. Tout est mis en œuvre pour simplifier la vie des utilisateurs, l’intuitif remplace l’apprentissage et le cloud masque la complexité des systèmes informatiques. On finirait presque par oublier le rôle prépondérant que jouent les équipements matériels. Le stockage et l’exploitation des données massives et la course à l’intelligence artificielle ont été rendus possibles grâce aux incroyables progrès réalisés en matière d’infrastructure IT et à la baisse des coûts qui en a résulté.
Le prix ne sera plus un différenciant entre cloud public et cloud privé. Pendant un temps on a pu imaginer que la maitrise et la responsabilité des infrastructures allaient être reléguées aux seuls fournisseurs de cloud. Depuis la notion de cloud hybride s’est imposée comme une approche équilibrée et réfléchie qui devrait perdurer. Le choix entre clouds publics et privés se pose davantage en termes de souveraineté, de réversibilité, de coûts de possession, d’expertise et de maitrise de sa ressource informatique que de prix. Les technologies Flash ont projeté le stockage dans une nouvelle dimension et les solutions comme l’hyperconvergence et l’infrastructure composable ont redonné plus d’efficacité aux datacenters. La souplesse de ces solutions est parfaitement adaptée aux impératifs de développement continu de notre époque et aux méthodes DevOps qui l’accompagnent. D’après une étude indépendante, faire tourner des machines virtuelles sur une infrastructure convergente peut s’avérer de 22% à 49% moins couteux que sur un environnement comparable Amazon Web Services.
Les infrastructures IT constituent la fondation des entreprises numériques. Les entreprises n’ont d’autres choix que de se réinventer sous la pression du numérique et deviennent progressivement des « software companies ». L’économie, les entreprises et notre société vont devenir totalement numériques et seront extrêmement exigeantes vis-à-vis des infrastructures IT qui les sous-tendent. Le datacenter du futur sera sans aucun doute « software Defined ». Les équipements informatiques seront définis directement par le logiciel pour gagner en souplesse et en rapidité. Si d’une certaine manière on cherche à rendre invisible l’infrastructure IT, elle n’en demeure pas moins la fondation de l’entreprise numérique. Pour s’adapter à la vague du numérique cette fondation devra continuer d’innover selon plusieurs axes :
- Evolutivité : la croissance des infrastructures doit se faire facilement sans perturber la production informatique. Elles doivent également être prêtre à accepter les innovations technologiques à venir
- Universalité : Les solutions doivent laisser aux clients la liberté de leur choix dans le temps et offrir plus de polyvalence en supportant par exemple aussi bien des environnements virtualisés que non virtualisés (bare metal) ou des containeurs logiciels, type Docker, qui automatisent le déploiement d’applications.
- Le recours à des interfaces de programmation (API Application programming Interfaces) doit donner la possibilité à un large écosystème d’exploiter au mieux l’infrastructure et d’y ajouter des fonctionnalités additionnelles. Le principe des APIs se généralise et permet également aux applications d’appeler des programmes spécifiques dans le cloud sans avoir à les développer soi-même.
- La disparité des outils d’administration nuit à la simplification. Une bonne manière de réduire cette complexité est d’offrir une API unique qui sert d’interface unifiée entre les différentes ressources IT à administrer et les éditeurs de logiciels qui veulent apporter des services d’infrastructures complémentaires. C’est ce que permet déjà HPE Synergy qui pousse à l’extrême la simplification en provisionnant l’infrastructure avec une simple ligne de code.
On doit réellement imaginer les infrastructures IT comme les fondations du numérique. Elles doivent être conçues pour supporter les nouvelles vagues qui s’apprêtent à déferler sur elles et en particulier la vague des objets connectés
L’internet des objets met les infrastructures sous pression. Déjà 8 milliards d’objets sont connectés aujourd’hui selon Gartner et 20 milliards le seront en 2020. Autant d’objets qui vont créer d’énormes masses de données qu’il va falloir stocker, traiter et transférer. De plus en plus souvent associée à des techniques de machine learning, une multitude de capteurs joue un rôle clé dans tous les secteurs d’activité pour contrôler, mesurer, surveiller et déclencher des actions appropriées. Dispersés sur les réseaux ces capteurs nécessitent de nouvelles approches de traitement pour agir rapidement avant même de transférer et de consolider les données dans un centre informatique central. Le traitement doit s’adapter aux nouveaux usages c’est ce que HPE entend faire avec les solutions « Intelligent Edge » pour couvrir l’espace de travail digital, les espaces intelligents (aéroports, centres commerciaux, musées etc..) et les systèmes d’objets connectés. (lire « IoT, l’avenir aux plus rapides, agiles, adaptables »)
L’innovation est un mélange de R&D et d’acquisitions. Avec un tel bouillonnement d’innovations technologiques la R&D d’une entreprise ne se suffit plus à elle-même pour investiguer toutes les voies possibles de manière efficace. Il faut la compléter par des acquisitions sélectives pour innover à la vitesse du marché. HPE a ainsi procédé à 5 acquisitions en moins d’un an (lire HPE accélère dans l’infrastructure IT et le Cloud par une série d’acquisitions). Il faut également repousser les limites technologiques pour préparer l’avenir. C’est ce que fait HPE avec le projet « The machine » qui s’apparente au « concept car » dans l’automobile. Le premier objectif de ce projet n’est pas nécessairement de devenir à court terme un produit proprement dit. Il est destiné en premier lieu à imaginer de nouvelles architectures et à tester des technologies de pointes (mémoires persistantes, connexions photoniques) qui seront utilisées ensuite dans les solutions HPE. (lire La mémoire n’est plus si volatile que ça). Le 16 mai 2017, HPE a ainsi révéler avoir réalisé, dans le cadre du projet The Machine », un prototype contenant 160 téraoctets de mémoire répartie sur 40 nœuds physiques (lire l’annonce). Cette technologie « Memory Driven Computing » place la mémoire, et non plus le processeur, au centre de l’architecture de traitement. Elle réduit considérablement le temps nécessaire pour résoudre des problèmes complexes. Avec l’accélération que l’on observe sur le big data et l’intelligence artificielle, les volumes croissants de données qui se déplacent sur les réseaux, cette nouvelle architecture devrait s’avérer incontournable dans l’avenir et se décliner aussi bien dans des équipements « intelligent edge » que dans de superordinateurs.
HPE concentre ses efforts pour que les infrastructures restent en phase avec les enjeux du numérique. Il peut ainsi garantir aussi bien à ses partenaires fournisseur de cloud qu’à ses clients qu’ils disposent des meilleures fondations pour envisager sereinement l’avenir.
- Retour au blog
- Article plus récent
- Article plus ancien
- stephane monpeurt sur : La région Côte d’Azur affiche sa volonté de jouer ...
- harithadadam sur : Windows Server 2019 : un système d'exploitation si...
- harithahari sur : Nos incontournables des sessions HPE Discover Virt...
- Binotto sur : Programme HPE d’accélération de start-up : Une exp...
- Nicolas_W sur : Comprendre le modèle de licence de Windows Server ...
- Joanna_K sur : Comprendre les nouvelles fonctionnalités de Window...
- Nicolas_W sur : Installez facilement Windows Server 2019 sur des s...
- Nicolas_W sur : Tout sur les licences HPE OEM Windows Server 2019
- HumanSourcing sur : Avec BlueData, HPE lance le « Big data, Machine Le...
- Nicolas_W sur : Les licences OEM Windows Server 2019 sont désormai...