Video: 3 modi per fare 100.000€ a 20 anni (Novembre 2024)
Nel suo discorso al Common Platform Technology Forum della scorsa settimana, il Dr. Gary Patton, vicepresidente del Centro di ricerca e sviluppo di semiconduttori di IBM, ha esposto la sua visione di un "chip altamente integrato". Da allora, ho pensato a come utilizzare un chip del genere.
Patton ha detto che alla fine gli piacerebbe vedere nuove tecnologie come la produzione 3D e la fotonica del silicio integrate insieme su un singolo chip, e ha descritto un chip 3D che avrebbe tre piani. Uno avrebbe logica, con circa 300 core di CPU. Un altro avrebbe memoria, con circa 30 GB di DRAM integrata, utilizzato principalmente come altro livello di cache. E infine, ci sarebbe un altro piano fotonico, che fornisce una rete ottica su chip, che si occupa delle connessioni all'interno e oltre il chip, operando a velocità superiori a 1 TB al secondo. È un bel chip.
Certo, questo sarebbe un chip server. In questo momento è difficile pensare a ciò che faremmo effettivamente con 300 core in un desktop o laptop, ed è probabile che sia troppo grande e troppo caldo per andare in un telefono cellulare. Come sappiamo, nel tempo, la tecnologia migra, quindi non dico mai mai. Tuttavia, è abbastanza facile immaginare come un tale chip possa essere usato nei supercomputer, specialmente quelli che comportano calcoli complessi. (Puoi leggere i miei post recenti sul supercalcolo qui e qui.)
Non sarei affatto sorpreso di vederlo in una sorta di successore del progetto Watson di IBM, che originariamente è stato creato per Jeopardy! sfida, ma ora viene utilizzato in settori come l'assistenza sanitaria e la finanza. La mia comprensione è che questo tipo di sfida dell'apprendimento automatico sembra essere più adatto per core abbastanza potenti, non per i tipi di cose SIMD (istruzione singola, dati multipli) che stiamo vedendo con il calcolo GPU. E se esistesse un chip di questo tipo, è probabile che IBM lo utilizzi nei suoi mainframe di fascia alta.
Tale chip potrebbe essere utilizzato per cose come la virtualizzazione, dove teoricamente dovrebbe essere in grado di gestire centinaia, forse migliaia di macchine virtuali. Per le singole applicazioni, tuttavia, avremo chiaramente bisogno di nuovi tipi di programmazione parallela, il che significa grandi cambiamenti nel modo in cui le persone scrivono le applicazioni.
Storicamente, l'informatica ha visto arrivare macchine più potenti ogni due anni e sembra che troviamo sempre nuovi modi per utilizzarle, spesso in modi che non avevamo previsto. Dopo tutto, dieci anni fa, poche persone immaginavano Watson o Hadoop, del resto. In ogni caso, è divertente pensare a cosa saremo in grado di fare con le chips del prossimo decennio.