Video: 10 Bulldozer più Grandi e Potenti del Mondo (Novembre 2024)
Mentre osservo gli annunci e gli atti della conferenza del Supercomputing 15 (SC15) del mese scorso ad Austin, sembra che, sebbene il calcolo ad alte prestazioni possa essere un po 'lento, è un mercato pronto per alcuni grandi cambiamenti nell'anno venire.
Se guardi i leader nella top500 list, l'elenco due volte all'anno dei computer più veloci del mondo, il leader per la sesta volta consecutiva è il Tianhe-2, un supercomputer costruito dalla National University of Defence Technology cinese. Secondo l'elenco top500, questa macchina fornisce 33, 86 petaflop / s (quadrilioni di calcoli al secondo) di prestazioni sostenute sul benchmark Linpack e 54, 9 petaflop / s di prestazioni di picco teoriche. Questo si basa sui processori Intel Xeon e Xeon Phi.
Il secondo posto continua con Titan, un sistema Cray XK7 basato su CPU AMD Opteron e GPU Nvidia K20x installate presso il Oak Ridge National Laboratory del DOE, a 17, 59 petaflop / s di prestazioni sostenute sul benchmark Linpack.
Due nuove macchine hanno sfondato la top 10. Il computer Trinity del Lawrence Livermore National Laboratory (LLNL) è sesto con 8, 1 petaflop / s, mentre il sistema Hazel-Hen del tedesco Höchstleistungsrechenzentrum Stuttgart (HLRS) è arrivato ottavo con 5, 6 petaflop / s. Entrambe sono macchine Cray XC, basate su processori Intel Xeon con interconnessione Aries.
I cambiamenti più grandi avvengono più in basso nell'elenco, in particolare con un grande aumento del numero di sistemi cinesi, che è cresciuto a 109, rispetto a solo 37 nell'elenco precedente. In parte, questo sembra provenire da più sistemi cinesi che eseguono i benchmark e inviano i risultati per l'elenco. Di conseguenza, il numero di sistemi statunitensi è sceso da 231 a 200, che è il numero più basso da quando l'elenco è stato avviato nel 1993; e il numero di sistemi europei è sceso da 141 a 108.
Una grande tendenza è un aumento del numero di sistemi che utilizzano acceleratori o coprocessori, che è salito a 104 sistemi nell'elenco corrente, rispetto ai 90 di luglio. La maggior parte di questi sistemi utilizza GPU Nvidia Tesla, seguite dai coprocessori Intel Xeon Phi, con alcuni che usano una combinazione. Nvidia ha sottolineato che era in 70 di questi sistemi, inclusi 23 dei 24 nuovi sistemi nell'elenco.
Alla fiera, Nvidia ha evidenziato la crescita degli acceleratori e in particolare il numero di applicazioni ora disponibili ottimizzate per l'architettura CUDA dell'azienda. La società afferma che il 90 percento delle prime 10 applicazioni di elaborazione ad alte prestazioni e il 70 percento delle prime 50 sono ora accelerate. Un uso interessante è per i sistemi che eseguono simulazioni meteorologiche, un'importante applicazione per il calcolo ad alte prestazioni, poiché le previsioni meteorologiche sono prodotte da tutti i tipi di governi. In precedenza Cray aveva sottolineato l'uso di tali acceleratori presso l'Ufficio meteorologico svizzero (MeteoSvizzera) e ha parlato di come funziona con i ricercatori svizzeri nella riscrittura di molte delle sue applicazioni. Nvidia sta ora indicando l'uso di acceleratori da parte della National Oceanic and Atmospher Administration (NOAA) anche per alcune delle sue previsioni meteorologiche.
Tra le altre applicazioni, Cray ha propagandato le applicazioni di petrolio e gas, come l'uso della geofisica 3D per simulare un serbatoio, nonché i servizi finanziari, come la valutazione del rischio. Tali applicazioni raramente costituiscono i sistemi più veloci al mondo, ma indicano che il calcolo ad alte prestazioni sta assumendo un ruolo più ampio in più applicazioni aziendali. Cray ha parlato di una costante progressione verso l'esecuzione di modelli più ampi e dettagliati in tutte le discipline scientifiche e ingegneristiche e la combinazione di carichi di lavoro tradizionali con analisi.
Ero anche interessato a un annuncio da parte della Linux Foundation di un nuovo sforzo chiamato OpenHPC, progettato per creare standard più aperti nel mondo HPC. È un'idea interessante, che sembra avere molti dei grandi giocatori che hanno firmato.
Ci sono un certo numero di nuovi sistemi nelle opere. IBM sta costruendo una nuova macchina chiamata Summit presso Oak Ridge National Laboratories (ORNL) e un'altra chiamata Sierra presso Lawrence Livermore National Laboratory (LLNL), entrambe basate su CPU con architettura IBM Power, GPU Nvidia Tesla e interconnessioni Mellanox. Si prevede che il vertice fornirà da 150 a 300 picchi / peta di picco e Sierra oltre 100 petaflop / s.
Inoltre, Intel e Cray stanno costruendo una nuova macchina chiamata Aurora, basata sui prossimi processori Intel Xeon Phi di Knights Hill per The Argonne Leadership Computing Facility (parte di Argonne National Labs), che mira a 150 petaflop nel 2018. Tutti questi fanno parte di un programma del Dipartimento dell'Energia noto come Collaboration of Oak Ridge, Argonne e Lawrence Livermore national lab (CORAL), finalizzato ad accelerare lo sviluppo dell'informatica ad alte prestazioni, e in particolare il progetto FastForward 2.
Tuttavia, abbiamo ancora molta strada da fare verso "il calcolo exascale".
Nel frattempo, c'erano diversi annunci sui processori che potevano essere di buon auspicio per il futuro. In particolare Nvidia ha spinto l'uso di supercomputer per applicazioni web iperscale, in particolare l'apprendimento automatico. Ha annunciato alcuni prodotti un po 'di fascia bassa: la scheda Tesla M40 con 3072 core CUDA, che ha dichiarato di essere in grado di eseguire fino a 7 teraflop / s a precisione singola, mirata principalmente all'allenamento "deep learning", e l'M4, una scheda di potenza inferiore con 1024 core e 2, 2 teraflop / s a precisione singola, che può essere utilizzata per l'inferenza di deep learning nonché per l'elaborazione di immagini e video. Inoltre, la società ha annunciato una nuova "suite iperscale" con applicazioni rivolte ai più grandi siti di elaborazione. Entrambi i nuovi prodotti hardware si basano sulla tecnologia di processo a 28 nm e sull'architettura Maxwell dell'azienda.
La società ha annunciato due architetture successive, conosciute come Pascal, in scadenza il prossimo anno, e Volta, che le seguiranno. Intel si è concentrata sul modo in cui HPC influenza la scienza, e sono rimasto incuriosito dalla descrizione di come utilizza il proprio supercomputer, attualmente classificato 99 nella top 500, per aiutare a progettare i propri processori. In particolare, la società ha dichiarato di utilizzare un milione di ore di CPU solo per progettare i fotomaschere per i processori di prossima generazione.
Gran parte dell'attività di Intel si è concentrata su Knights Landing, la prossima versione del suo chip Xeon Phi, che può essere utilizzato come acceleratore ma anche avviato; e il suo tessuto Omni-Path. Sebbene Intel ora affermi che la disponibilità generale sarà nella prima metà del 2016, alcuni clienti hanno accesso anticipato a Knights Landing. Attualmente, Cray sta testando un grande sistema di atterraggio dei cavalieri in preparazione per consegnare un nuovo supercomputer chiamato Cori per il National Energy Research Scientific Computing Center (NERSC), e Los Alamos National Laboratory e Sandia National Laboratories, l'anno prossimo. Bull, un'unità dell'integratore di sistemi francese Atos, ha anche ricevuto le prime versioni di Knights Landing per preparare il sistema Tera 1000 che sta costruendo per la Commissione francese per le energie alternative e l'energia atomica. Argonne Leadership Computing Facility sta lavorando a un sistema chiamato Theta, che sarà consegnato il prossimo anno, e Sandia National Laboratories sta lavorando con Penguin Computing per aggiornare diversi sistemi che utilizzano le generazioni precedenti di coprocessori Xeon Phi.
Intel ha affermato in precedenza che ci saranno tre diverse versioni di Knights Landing: un processore host di linea di base (in grado di auto-boot), un processore host con un tessuto Omni-Path integrato e una scheda acceleratrice PCIe. Il chip stesso sarà composto da 36 riquadri ciascuno con due core della CPU (per un totale di 72 core), quattro unità di elaborazione vettoriale (due per core), 1 MB di cache L2 condivisa e un agente di memorizzazione nella cache per mantenere la coerenza; e Intel ha affermato che dovrebbe offrire prestazioni scalari circa tre volte superiori rispetto alla CPU Knights Corner, con 3 doppia precisione teraflop / s e prestazioni di picco singola precisione 6 teraflop / s. Utilizza anche un nuovo sistema di memoria chiamato MCDRAM, memoria integrata sulla confezione con oltre 3 volte la larghezza di banda disponibile rispetto all'uscita su DDR4 che sembra essere una variante dell'architettura Hybrid Memory Cube di cui Intel e Micron ne hanno parlato. Allo show, Cray aveva un sistema prototipo con un Knights Landing avviabile e un certo numero di altri venditori mostrava sistemi progettati per Knights Landing. Questa versione di Xeon Phi dovrebbe essere seguita da una versione chiamata Knights Hill, che dovrà essere costruita sul prossimo processo a 10 nm.
Inoltre, Fujitsu ha parlato un po 'di più del suo progetto Flagship 2020, basato su un nuovo chip noto come FX100 con 32 core. Si prevede che questo quadruplicherà approssimativamente le prestazioni in virgola mobile rispetto all'attuale FX10 e, come Knights Landing, FX100 di Fujitsu utilizzerà anche una versione dell'architettura Hybrid Memory Cube. Inoltre, NEC ha un progetto con il nome in codice Aurora (non correlato al progetto CORAL), basato sul suo follow-up al chip SX-ACE ma con una maggiore larghezza di banda di memoria. Questo è previsto per il 2017.