Video: Come gestisco l'ARCHIVIAZIONE DEI FILE video e non solo (Novembre 2024)
L'esame di alcuni degli annunci avvenuti circa la scorsa settimana, in particolare all'Open Compute Summit della scorsa settimana, porta a casa l'idea che i sistemi di elaborazione e archiviazione stanno diventando più densi a un ritmo molto rapido.
In vista della conferenza, Intel ha presentato il suo processore Xeon D, progettato per i microserver, con versioni a 4 e 8 core. In particolare, la versione quad-core è progettata per funzionare in un punto di progettazione termica vicino a 20 watt, che è molto più basso rispetto ai processori Xeon standard, mentre l'8 core utilizza circa 45 watt. Ora Intel ha offerto progetti System-on-Chip (SoC) a 64 bit come parte della sua famiglia Atom (nota come Avoton, con l'attuale prodotto chiamato C2750), e ha presentato in anteprima Xeon D lo scorso autunno. Ma questo è il primo chip Intel destinato ai microserver a utilizzare i core Xeon e Intel afferma che offre prestazioni fino a 3, 4 volte più veloci e prestazioni per watt fino a 1, 7 volte migliori rispetto al core Atom. Xeon D può indirizzare fino a 128 GB di memoria e dovrebbe essere generalmente disponibile nella seconda metà dell'anno.
Ciò sembra mirato principalmente a carichi di lavoro ad alta intensità di elaborazione per cloud, telecomunicazioni e provider di hosting, che mirano a situazioni in cui si desidera che molti core di elaborazione utilizzino il minor consumo possibile; e sembra chiaramente un concorrente di tutti i chip server basati su ARM che sono stati annunciati. Diverse aziende hanno annunciato server ARM a 64 bit, ma solo Cavium con il suo ThunderX, Applied Micro con il suo X-Gene e AMD con Opteron A1100, noto anche come "Seattle", hanno progetti in produzione o quasi.
Intel ha messo a punto un design che sacrifica parte della cache interna e della capacità di memoria esterna rispetto alla tradizionale famiglia Xeon E a favore della densità di elaborazione e ha utilizzato la sua produzione a 14 nm per rendere il chip più piccolo ed efficiente dal punto di vista energetico (Si noti che potrebbe non essere tecnicamente un SoC poiché l'hub del controller della piattaforma è in realtà un die diverso nello stesso pacchetto, ma ciò non dovrebbe importare nella progettazione dei sistemi.)
Al vertice, il fondatore del progetto Open Compute Facebook ha descritto un nuovo telaio di sistema modulare chiamato "Yosemite" che contiene quattro schede server, ciascuna con un singolo processore che utilizza fino a 65 watt insieme allo switch di rete top-of-rack Wedge di Facebook, e il nuovo Software Open Baseboard Management Controller (OpenBMC) che fornisce funzioni di gestione del server come il monitoraggio della temperatura, il controllo delle ventole e la registrazione degli errori. Utilizzando la specifica OpenRack, è possibile inserire fino a 192 schede server in un singolo rack. In particolare, Facebook ha parlato dell'utilizzo di schede denominate "Mono Lake" con una versione a otto core / 16 thread a 2, 0 GHz di Intel Xeon D all'interno di questo sistema, consentendo fino a 1.536 core di CPU per rack.
Complessivamente, tutto ciò è una grande spinta di Facebook e dell'Open Compute Project verso standard più aperti nella progettazione di rack e server.
Un altro annuncio importante nella stessa ottica è stato quello di HP, che ha annunciato Cloudline, una nuova famiglia di server rack che utilizza le specifiche Open Compute, creata in collaborazione con Foxconn. Cloudline CL sono server rack e slitte 1U e 2U con doppi processori Intel Xeon E5-2600 v3 (Haswell). La linea include sistemi full rack per grandi data center cloud; server densi e multi-nodo per le società di hosting; e server rack in ferro nudo a basso costo per implementazioni su larga scala.
Per i clienti aziendali, sono progettati per eseguire la versione HP Helion del software OpenStack, mentre i grandi fornitori di cloud utilizzano spesso i propri stack di software. HP aveva precedentemente annunciato gli switch di rete aperti Altoline e insieme questo sembra un grande cambiamento nel modo in cui la società sta seguendo le più grandi installazioni di elaborazione.
Nel frattempo, abbiamo anche visto gli sforzi per aumentare la densità sul lato dello storage. Sono rimasto colpito dall'array all-flash InfiniFlash di SanDisk, in particolare una configurazione che consente fino a 512 TB di spazio di archiviazione grezzo in un contenitore 3U. Questo è un sacco di spazio di archiviazione veloce in una piccola quantità di spazio; la società afferma di offrire una densità cinque volte superiore a quella di un sistema basato su disco rigido con prestazioni 50 volte superiori. Il prezzo della memoria Flash sta diminuendo: SanDisk afferma che costerà meno di $ 1 per GB dopo la compressione o meno di $ 2 per GB senza compressione o de-duplicazione. SanDisk vende principalmente ai clienti OEM, non alle imprese, ma ha affermato che ciò sarà offerto ai fornitori di servizi cloud.
Neanche le unità disco fisso sono ferme. HGST, che ha spinto il limite della capacità nelle unità server, la scorsa settimana ha introdotto una versione da 3, 5 pollici da 10 TB, finalizzata allo storage cool per l'archiviazione cloud e l'archiviazione attiva. (In altre parole, non è inteso come memoria principale, ma ha ancora molta capacità.) Ed ero interessato a vedere che Toshiba ora offre un'unità desktop da 3, 5 pollici da 6 TB. Nel frattempo, Sony ha dimostrato un prototipo di dispositivo di archiviazione a freddo con 1, 5 P di petabyte di memoria (15.000 dischi Blu-ray da 100 GB ciascuno) con un tempo di accesso di circa 30 secondi e Panasonic ha mostrato il formato di disco archivistico da 300 GB su cui ha lavorato con Sony, che ha detto dovrebbe essere disponibile entro la fine dell'anno.
Più elaborazione e più spazio di archiviazione sono una tendenza enorme nell'informatica. Ma tutto deve ancora essere gestito, e questa è la prossima sfida.