- Community Home
- >
- HPE Community, Italy
- >
- HPE Blog, Italy
- >
- Rompere con l’oblio grazie a un nuovo tipo di comp...
Categorie
Company
Local Language
Forums
Forum di discussione
Forums
- Data Protection and Retention
- Entry Storage Systems
- Legacy
- Midrange and Enterprise Storage
- Storage Networking
- HPE Nimble Storage
Forum di discussione
Forum di discussione
Forum di discussione
Forums
Forum di discussione
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
- BladeSystem Infrastructure and Application Solutions
- Appliance Servers
- Alpha Servers
- BackOffice Products
- Internet Products
- HPE 9000 and HPE e3000 Servers
- Networking
- Netservers
- Secure OS Software for Linux
- Server Management (Insight Manager 7)
- Windows Server 2003
- Operating System - Tru64 Unix
- ProLiant Deployment and Provisioning
- Linux-Based Community / Regional
- Microsoft System Center Integration
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Discussion Boards
Comunità
Contatto
Forums
Blogs
- Iscriversi a feed RSS
- Contrassegna come Nuovo
- Contrassegnare come Letto
- Aggiungi ai Preferiti
- Ricevi notifiche via mail
- Visualizza in formato stampa
- Segnala contenuto inappropriato
Rompere con l’oblio grazie a un nuovo tipo di computer
Dall’articolo Fighting Oblivion with a New Kind of Computer
L’architettura dei computer che utilizziamo tutti i giorni ha più di 60 anni. Già oggi, non sarebbero in grado di far fronte alla crescita esponenziale dei dati che si manifesta in molte aree, come ad esempio quella della ricerca medica dove immagine e analisi delle informazioni genetiche creano immense quantità di dati.
Per rispondere a questo trend, il centro tedesco per le malattie neurovegetative (DZNE), istituto di ricerca specializzato, tra l’altro, di malattie come Parkinson e Alzheimer, ha chiuso recentemente un accordo di collaborazione con Hewlett Packard Enterprise per fare leva sulla nuova architettura di elaborazione fornita da HPE.
Lo scorso dicembre 2016 all’HPE Discover di Londra, HPE ha presentato il prototipo del Memory-Driven Computing, un concetto che mette la memoria, e non i processi, al centro della piattaforma di calcolo. Il Memory-Driven Computing è in grado di generare efficienza e di fornire idee ai big data non possibili con le strutture classiche.
Un esempio è rappresentato dalla simulazione Monte Carlo, utilizzata da banche e commercianti di titoli per prevedere il valore delle azioni o i tassi di cambio delle valute. Con i sistemi di oggi, una simulazione Monte Carlo impiega quasi due ore. Gli ultimi test hanno invece dimostrato che, con il Memory-Driven Computing, è possibile effettuare questa simulazione in poco più di un secondo.
Durante l’ultima edizione della CeBIT che si è da poco conclusa in Germania, Andrew Wheeler, HPE VP e Deputy Director per Hewlett Packard Labs, ha mostrato i progressi del Memory-Driven Computing e del programma di ricerca The Machine.
“Siamo entusiasti dei continui progressi che sta facendo il programma di ricerca The Machine,” ha detto Wheeler. “Stiamo continuando a sviluppare e commercializzare questa nuova architettura informatica. Queste attività includono estensione delle prestazioni e capacità del prototipo di perfezionare ulteriormente l’architettura e le sue componenti tecnologiche, accelerando allo stesso tempo la commercializzazione delle tecnologie sviluppate nell’ambito del progetto di ricerca The Machine in prodotti nuovi ed esistenti.”
HPE sta anche esplorando nuovi casi di utilizzo di questa architettura con i partner e l’accordo di collaborazione con DZNE è una grande opportunità per esplorare le implicazioni per il Memory-Driven Computing. DZNE produce grandi quantità di dati, per esempio, quando registra le immagini del cervello utilizzando la tomografia a risonanza magnetica (MRT). L’analisi di questi dati impiega di solito 14 giorni e solo dopo è possibile, per i ricercatori, definire il passo successivo e iniziare un nuovo ciclo di analisi.
L’utilizzo della nuova architettura di HPE non solo velocizzerà di molto l’analisi di questi dati, ma renderà possibile un utilizzo di immagini di qualità superiore. Questo è difficilmente possibile oggi perché la quantità di dati associata alle immagini ad alta risoluzione è troppo elevata per i sistemi convenzionali. Di conseguenza, la nuova tecnologia è in grado di accelerare di molto la valutazione di grandi set di dati, velocizzando l’analisi e migliorando l’assistenza ai pazienti.
- Ritornare al blog
- Articolo più recente
- Articolo meno recente
- Lorenzo COSLOVI su: HPE presenta il 5G Lab per accelerare l'adozione d...
- DavideZambelli su: Come funziona il calcolatore delle licenze core di...
- MassimilianoG su: Domande Frequenti HPE OEM Microsoft Windows Server...
- MassimilianoG su: HPE OEM Microsoft Client Access Licenses: Cosa son...
- MassimilianoG su: Il nuovo anno di Coffee Coaching
- MassimilianoG su: Perché il server ProLiant DL20 Gen9 è una grande r...