- Community Home
- >
- HPE Community, Italy
- >
- HPE Blog, Italy
- >
- Data Center: re-inventare i Data Center Network
Categorie
Company
Local Language
Forums
Forum di discussione
Forums
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
Forum di discussione
Forums
Forum di discussione
Forum di discussione
Forum di discussione
Forums
Forum di discussione
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Comunità
Contatto
Forums
Blogs
- Iscriversi a feed RSS
- Contrassegna come Nuovo
- Contrassegnare come Letto
- Aggiungi ai Preferiti
- Ricevi notifiche via mail
- Visualizza in formato stampa
- Segnala contenuto inappropriato
Data Center: re-inventare i Data Center Network
Data Center: re-inventare i Data Center Network
Nel corso degli ultimi 30 anni, i data center hanno subito diverse evoluzioni: questi cambiamenti sono stati favoriti da modifiche strutturali nei processi dei data center stessi, con una rapida trasformazione della configurazione dei componenti dedicati all’elaborazione, di rete e software.
La prima generazione di data center rispecchiava un'epoca in cui erano in campo molti protocolli: Internet Protocol (IP), Internetwork Packet Exchange (IPX), Systems Network Architecture (SNA) e altri. Sebbene ciascuno di essi avesse un proprio modello di routing a livello 3, erano abbastanza coerenti nel comportamento a livello 2. Il focus era su un'architettura Layer 2 standard in cui tutti i protocolli coesistevano, mentre esistevano diversi gateway Layer 3 per entrare e/o uscire dal data center fabric. Per questo motivo il chip di allora era saldamente ottimizzato per la scalabilità a Layer 2, per rispondere alle esigenze dei workload ospitati nel data center.
Successivamente, è arrivata la seconda generazione di data center fabric, con l'IP che è diventato il protocollo dominante, il che ha comportato che la tecnologia fabric dovesse essere ottimizzata solo per l'IP. A differenza dei loro predecessori del XX secolo, i fabric degli anni 2000 supportavano sia il Layer 2 sia il Layer 3 nel chip e si concentravano sulla scalabilità dei fabric per la connettività IP, fornendo sia switching che routing in un modello completamente distribuito.
L'introduzione della terza generazione di data center fabric è giunta a supportare la segmentazione delle applicazioni all'interno dei data center stessi. Con l'avvento e l'esplosione del cloud e delle virtual machine, i carichi di lavoro che apparivano come strutture monolitiche centralizzate - e limitati a un singolo server - potevano ora essere scomposti in unità più piccole e successivamente distribuiti per interagire tra loro su più sistemi attraverso il fabric.
Il passaggio ai data center distribuiti
Nonostante queste evoluzioni graduali, le vecchie generazioni di data center presentano dei problemi. In particolare, essi sono costruiti con livelli infrastrutturali separati, hardware specifico e gestione frammentata. Ciò comporta un aumento dei costi e una complessità dei modelli di implementazione e delle operazioni.
Inoltre, non supportano lo spostamento generalizzato verso lo sfruttamento dei dati distribuiti, che richiede l'elaborazione dei workload più vicino al luogo in cui i dati vengono effettivamente creati, attraverso molte postazioni periferiche. Questa tendenza non mostra segni di rallentamento: Gartner® prevede infatti che "entro il 2027, il 35% dell'infrastruttura del data center sarà gestita attraverso un piano di controllo basato su cloud, a fronte di una percentuale inferiore al 10% nel 2022".
È necessario un nuovo approccio strutturale, incentrato sull’Edge, abilitato dal cloud e data driven. In definitiva è necessario offrire un'esperienza cloud agli operatori IT, sia che si tratti di un data center tradizionale, sia di un sito di co-locazione o di un nuovo sito Edge digitale, con semplicità, velocità e sicurezza racchiuse in modelli di consumo flessibili.
E qui entra in scena la quarta generazione di data center networking: ora, per la prima volta, sia il chip, sia il software consentono al data center fabric di fornire realmente i servizi infrastrutturali necessari per supportare i carichi di lavoro su ampia scala. Invece di considerare il fabric solo come soluzione di segmentazione e connettività, esso può ora evolversi per supportare tutti i servizi di infrastruttura che consentono la scalabilità dei carichi di lavoro.
In questo contesto è utile analizzare i principali vantaggi dei data center di quarta generazione: sicurezza, gestione del workflow operativo e integrazione di terze parti.
Portare la sicurezza ad un livello superiore
La sicurezza tecnologica è una guerra di logoramento: nell'ultimo decennio i fornitori hanno scoperto che avere strumenti diversi per ogni componente della sicurezza, creava complessità e riduceva la sicurezza generale. Da qui sono nati i firewall di nuova generazione (NGFW), che integrano in un'unica piattaforma i firewall di rete, i sistemi di prevenzione delle intrusioni, l'antivirus di rete, i controlli dei gateway web, l'ispezione dei DNS e il rilevamento delle minacce informatiche. Tuttavia, il traffico rimaneva Nord-Sud (dall'utente all'applicazione). Con molte applicazioni che ora consistono in diversi servizi, questo significa che la visibilità completa del traffico diventa difficile o costosa.
Ora, con i data center di quarta generazione, questo consolidamento viene portato all'intero fabric, a partire da due delle funzioni più importanti del data center: la sicurezza est-ovest, necessaria per qualsiasi implementazione a zero trust, e la telemetria di rete completa (non solo a campione).
Entrambi sono essenziali per i carichi di lavoro frammentati: la sicurezza all'interno del data center è fondamentale per prevenire le violazioni, mentre la telemetria offre opportunità per tutte le soluzioni emergenti basate sull'apprendimento automatico, che possono automatizzare la sicurezza e le operazioni di rete, in modi che in precedenza non erano possibili senza una telemetria completa del data center.
Gestione dei workflow operativi e integrazioni con terze parti
Un ulteriore vantaggio dei data center di quarta generazione è rappresentato dalle capacità di gestione del workflow operativo, abilitate grazie a un'integrazione perfetta e a un ecosistema “open”. La possibilità di combinare differenti prodotti di rete e di storage assicura ai reparti IT una visione completa del mondo virtuale, dell'elaborazione e dello storage, fornendo essenzialmente una visione del ciclo di vita di un workload. L'orchestrazione di un insieme discreto di switch come un unico fabric di rete semplifica le operazioni quotidiane.
Inoltre, le aziende possono fare un ulteriore passo avanti, implementando switch API autogenerati per consentire l'automazione del workflow e una semplice interfaccia “point-and-click” che aiuta a semplificare e ridurre la complessità. Grazie all'automazione del workflow basato sugli eventi, la rete dei data center di quarta generazione è in grado di supportare il provisioning, la configurazione e l'ottimizzazione delle reti in tempo reale senza necessità di intervento, permettendo ai team IT di aver più tempo disponibile per altre attività.
I fabric di quarta generazione non solo possono integrarsi con strumenti di gestione e automazione dei workflow, ma possono anche essere stratificati con servizi di cloud ibrido e servizi di “infrastructure-as-a-service” (IaaS). Che siano on-premise, completamente gestiti in un modello pay-per-use, in co-location o nel data center, i servizi cloud ibridi e IaaS offrono un vantaggio concreto rispetto ai modelli tradizionali di 'network-only'. Ciò significa che i fabric più recenti possono integrarsi con le applicazioni service now. Se le aziende richiedono un nuovo server o una nuova applicazione, tutti i processi, dalla sicurezza alla rete, possono essere automatizzati e integrati, fornendo un workflow operativo simile a quello dell'Hyperscalers.
Il percorso da seguire
In conclusione, i data center di quarta generazione offrono alle organizzazioni un mezzo per essere al passo con il futuro in un contesto di dati sempre più distribuiti, sostenuti da strategie di infrastruttura di rete che integrano opzioni di fornitura on-premise, co-location, cloud ed Edge. Questi nuovi fabric per data center sosterranno il passaggio ai "centri di dati", supportando i workload su ampia scala, con semplicità, velocità e sicurezza, integrati in modelli di consumo flessibili basati sulle esigenze di un'organizzazione.
Gartner, Previsioni per il 2023: XaaS is Transforming Data Center Infrastructure, Jason Donham, Bob Gill, Philip Dawson, Michael Warrilow, Jonathan Forest, 22 Novembre 2022.
- Ritornare al blog
- Articolo più recente
- Articolo meno recente
- Lorenzo COSLOVI su: HPE presenta il 5G Lab per accelerare l'adozione d...
- DavideZambelli su: Come funziona il calcolatore delle licenze core di...
- MassimilianoG su: Domande Frequenti HPE OEM Microsoft Windows Server...
- MassimilianoG su: HPE OEM Microsoft Client Access Licenses: Cosa son...
- MassimilianoG su: Il nuovo anno di Coffee Coaching
- MassimilianoG su: Perché il server ProLiant DL20 Gen9 è una grande r...