Nvidia costruirà il `` supercomputer di intelligenza artificiale più veloce del mondo ''

Nvidia costruirà il `` supercomputer di intelligenza artificiale più veloce del mondo ''
Nvidia e Cineca, consorzio interuniversitario italiano e grande centro di supercalcolo, hanno annunciato la loro intenzione di costruire "il supercomputer AI più veloce del mondo". Il prossimo sistema Leonardo utilizzerà quasi 14.000 GPU Nvidia A100 per una varietà di attività di elaborazione ad alte prestazioni. Le prestazioni massime del sistema dovrebbero raggiungere 10 FP16 ExaFLOPS. Il supercomputer sarà basato sui nodi del supercomputer BullSequana XH2000 di Atos, ciascuno con un Intel sconosciuto Gli scivoli sono raffreddati ad acqua e ce ne sono 100 in ciascun armadio HPC.

(Credito immagine: Atos) L'architettura BullSequana XH2000 è molto flessibile, quindi può ospitare qualsiasi processore e GPU e a tale scopo possiamo solo indovinare quale processore Intel Xeon verrà utilizzato per il Leonardo.

(Credito immagine: Atos) Gli scienziati delle università italiane intendono utilizzare Leonardo per la scoperta di farmaci, l’esplorazione e la ricerca spaziale e la modellizzazione meteorologica. Tradizionalmente, queste applicazioni si affidano a carichi di lavoro di simulazione e analisi dei dati ad alte prestazioni che richiedono precisione FP64. Ma Nvidia afferma che molte attività HPC oggi si basano su una potente intelligenza artificiale e sull’apprendimento automatico, e per tali carichi di lavoro la precisione del FP16 è sufficiente. Naturalmente un gran numero di GPU possono anche supportare display ad alta risoluzione. La GPU A100 di Nvidia è stata progettata principalmente per l'informatica, quindi supporta tutti i tipi di precisione, inclusi supercomputadora '' FP64 y la AI'FP16. 14.000 GPU Nvidia A100 possono raggiungere prestazioni fino a 8.736 FP16 ExaFLOPS (624 TFLOPS per GPU con parsimonia strutturale abilitata × 14.000). Nel frattempo, lo stesso numero di GPU può fornire 135,800 TFLOPS FP64, che è leggermente inferiore ai 148,600 TFLOPS FP64 di Summit. Nvidia ritiene che l'intelligenza artificiale e il machine learning siano cruciali per i supercomputer di oggi, motivo per cui l'azienda preferisce citare le massime prestazioni dell'FP16 con parsimonia strutturale abilitata, nel caso del supercomputer Leonardo alimentato dalle sue GPU A100. “Con l’avvento dell’intelligenza artificiale, ora disponiamo di una nuova metrica per misurare i supercomputer. Di conseguenza, le prestazioni dei nostri supercomputer sono salite alle stelle poiché la loro potenza di calcolo è aumentata in modo esponenziale con l’introduzione dell’intelligenza artificiale”, ha dichiarato a LaComparacion Pro Ian Buck, vicepresidente e direttore generale del calcolo accelerato presso LaComparacion Pro, Nvidia. “I moderni supercomputer di oggi devono essere supercomputer di intelligenza artificiale per essere uno strumento essenziale per la scienza. Nvidia apre una nuova tendenza combinando HPC e AI. Solo i supercomputer IA possono fornire 10 ExaFLOPS di prestazioni IA con quasi 14.000 GPU basate sull'architettura NVIDIA Ampere. " Fonti: comunicato stampa Nvidia, articolo sul blog Nvidia