Casa Attività commerciale In che modo questa enorme struttura nel deserto dell'Oregon fa funzionare Facebook

In che modo questa enorme struttura nel deserto dell'Oregon fa funzionare Facebook

Video: Struttura di metallo ritrovata nel deserto dello Utah (Novembre 2024)

Video: Struttura di metallo ritrovata nel deserto dello Utah (Novembre 2024)
Anonim

PRINEVILLE, Ore. - Ci sono molti modi per assicurarti di avere Internet veloce. Potresti trasferirti in una città di Google Fiber. È possibile selezionare uno dei nostri ISP più veloci. Oppure, potresti costruire la tua casa accanto a un data center di Facebook.

Prendi il primo data center di Facebook, ad esempio. Inaugurato a Prineville, in Oregon, nel 2011, è servito da modello per ogni data center che il gigante dei social media ha costruito da allora, dalla Svezia allo Iowa. Consuma così tanta larghezza di banda che richiede più ISP che servono l'area per fortificare le loro reti, portando i residenti locali per il viaggio.

Potresti pensare al data center di Prineville, insieme alle altre strutture di Facebook, come il cuore collettivo del più grande social network del mondo: ricevono un diluvio di richieste di foto, aggiornamenti di stato e aggiornamenti di feed di notizie da 1, 65 miliardi di utenti attivi del sito e rispondere il più rapidamente possibile, simile a un cuore che pompa ossigeno nel flusso sanguigno.

La struttura di Prineville si sta avvicinando al suo quinto anniversario e sta gestendo richieste di dati per cose che Mark Zuckerberg probabilmente non aveva idea che Facebook avrebbe fatto quando ha pensato all'idea per l'azienda nella sua stanza del dormitorio di Harvard.

Questa settimana, PCMag si è fermato per un tour.

Prineville conserva ancora foto e aggiornamenti di stato, ovviamente, ma ora ha anche migliaia di GPU Nvidia che supportano la ricerca di intelligenza artificiale di Facebook, oltre a 2.000 telefoni iOS e Android che eseguono test 24 ore al giorno. Questo aiuta gli ingegneri dell'azienda ad aumentare l'efficienza energetica delle sue app, che includono Instagram, Messenger e WhatsApp, oltre a Facebook.

I dati di Facebook sono "resilienti, non ridondanti"

La prima cosa che noti della struttura di Prineville sono le sue dimensioni. Sorgendo dall'alto deserto alberato del centro dell'Oregon a tre ore di auto da Portland non è un singolo edificio ma quattro (e che non include un altro enorme data center Apple recentemente costruito dall'altra parte della strada, giustamente chiamato Connect Way). Uno degli edifici di Facebook può contenere due Walmarts all'interno ed è circa 100 piedi più lungo di una portaerei di classe Nimitz.

All'interno ci sono server che contengono diversi petabyte di spazio di archiviazione e che gli ingegneri di Facebook aggiornano costantemente sostituendo i componenti. Delle 165 persone che lavorano a tempo pieno nel data center, 30 per edificio sono assegnati solo per riparare o sostituire alimentatori, processori, memoria e altri componenti.

Il segno distintivo di quasi tutte le aziende che operano su Internet, da Amazon a Charles Schwab, è la ridondanza: più server archiviano più copie di dati. Questo è meno il caso di Prineville, dove Ken Patchett, direttore delle operazioni sui dati occidentali di Facebook, si concentra invece sulla resilienza, approssimativamente definita come la capacità di essere pronti in qualsiasi momento e ovunque nel mondo qualcuno acceda a Facebook.

Concentrarsi sulla "resilienza, non sulla ridondanza", come afferma Patchett, è possibile perché Facebook ha il lusso di archiviare più copie di dati nelle sue altre posizioni in tutto il mondo, da Lulea, Svezia, a Altoona, Iowa. Quindi, invece di avere due o più di tutto, può concentrarsi sugli acquisti di attrezzature strategiche in ogni posizione, come avere un generatore di energia di backup per ogni sei generatori principali.

"Devi essere fiscalmente responsabile se vuoi essere resiliente", ha spiegato Patchett. È uno dei padri fondatori di data center ad alta tecnologia nell'alto deserto dell'Oregon. Prima di arrivare a Facebook, ha contribuito a creare un data center in The Dalles, in Oregon, per Google, una delle prime società Internet a capitalizzare l'energia idroelettrica a basso costo e il clima fresco e secco che caratterizza la vasta porzione orientale della nona più grande d'America. stato.

Il potere abbondante, ovviamente, è cruciale per il funzionamento di Facebook. La temperatura del server è regolata da una combinazione di refrigerante d'acqua e grandi ventole che tirano l'aria secca del deserto (sotto) invece di unità di condizionamento che consumano energia e denaro. L'intervallo di temperatura target è compreso tra 60 e 82 gradi Fahrenheit. Il team di Patchett è diventato così bravo a raggiungere questo obiettivo che Prineville vanta ora un rapporto di efficienza energetica di 1, 07, il che significa che le apparecchiature di raffreddamento, le luci e i riscaldatori, tutto ciò che non è un dispositivo di elaborazione, consumano solo il 7% del consumo totale di energia della struttura.

32 iPhone in una scatola

La maggior parte del raffreddamento e della potenza sono destinati a soddisfare le esigenze dei server, ma alcuni vengono trasferiti in una sala di test per app relativamente piccola con implicazioni per ridurre il consumo di energia non solo a Prineville, ma su tutti i telefoni con un'app di Facebook.

Non è un segreto che l'app di Facebook abbia lottato con la gestione dell'alimentazione. Il Guardian ha affermato all'inizio di quest'anno che l'app stava riducendo la durata della batteria su iPhone del 15 percento. Per semplificare l'app e ridurre il consumo della batteria, l'azienda ha portato a Prineville circa 2.000 telefoni iOS e Android, dove sono installati all'interno di scatole in gruppi di 32.

Ogni box ha una propria rete Wi-Fi, circondata da pareti isolate e nastro di rame, che gli ingegneri del quartier generale della Silicon Valley usano per consegnare una batteria di test. Stanno cercando "regressioni" nell'uso della batteria e nelle prestazioni causate dagli aggiornamenti delle app di Facebook, Instagram, Messenger e WhatsApp. Se ne trovano uno nel codice di Facebook, lo risolvono. Se l'inefficienza è stata introdotta da uno sviluppatore, il suo sistema avvisa automaticamente l'autore del reato via e-mail.

Le scatole non contengono solo gli ultimi iPhone 6s o Galaxy S7. Sul lato iOS, includono molti modelli di iPhone 4s e versioni successive. Sul lato Android, chi lo sa? Basti pensare che c'è un ragazzo il cui compito è trovare oscuri dispositivi Android e portarli a Prineville.

"Dobbiamo procurarci telefoni da ogni parte", ha affermato Antoine Reversat, un ingegnere che ha contribuito a sviluppare l'infrastruttura di test e il software. Il suo obiettivo finale è raddoppiare la capacità dei rack di contenere fino a 62 telefoni ciascuno e trovare un modo per ridurre la procedura manuale in 20 passaggi richiesta per configurare il telefono per i test a un livello. Ciò dovrebbe confortare chiunque abbia mai avuto il telefono morto mentre aggiornava il feed di notizie.

Big Sur: cervello AI di Facebook

Successivamente nel nostro tour c'erano i server di intelligenza artificiale di Big Sur, che, come la costa della California per cui sono stati nominati, costituiscono probabilmente la parte più scenografica del data center. Non stiamo parlando di panorami mozzafiato nel Pacifico, ovviamente, ma invece di uno schermo di computer che mostrava quello che sembrava essere un gruppo di dipinti, presidiato da Ian Buck, vicepresidente dell'informatica accelerata di Nvidia.

"Abbiamo formato una rete neurale per riconoscere i dipinti", ha spiegato Buck. "Dopo circa mezz'ora di guardare i dipinti, è in grado di iniziare a generare il proprio."

Quelli in mostra assomigliavano all'impressionismo francese del XIX secolo, ma con una svolta. Se vuoi una combinazione di una natura morta di frutta e un paesaggio fluviale, Big Sur lo dipingerà per te flettendo i suoi 40 petaflop di potenza di elaborazione per server. È uno dei numerosi sistemi di intelligenza artificiale che utilizzano GPU Nvidia - in questo caso, processori Tesla M40 basati su PCI.e - per risolvere complessi problemi di apprendimento automatico. Il progetto sanitario DeepMind di Google utilizza anche i processori Nvidia.

Facebook sta usando Big Sur per leggere storie, identificare volti in foto, rispondere a domande su scene, giocare e imparare routine, tra le altre attività. Sta anche open-sourcing del software, offrendo ad altri sviluppatori un progetto su come impostare la propria infrastruttura specifica per l'IA. L'hardware include otto schede GPU Tesla M40 fino a 33 watt ciascuna. Tutti i componenti sono facilmente accessibili all'interno di un server drawer per aumentare la facilità degli aggiornamenti, che sicuramente arriveranno quando Nvidia rilascerà nuove versioni PCI.e delle sue GPU Tesla, incluso l'ammiraglia P100.

Celle frigorifere per foto dimenticate

Poiché Prineville è il primo data center di Facebook, tende ad essere il punto in cui gli ingegneri testano idee per rendere i server di Facebook più efficienti. Una delle ultime idee è l'archiviazione a freddo, o server dedicati che memorizzano su Facebook qualsiasi cosa che non ottenga molte visualizzazioni, ad esempio le foto del ballo del liceo o quelle dozzine di aggiornamenti di stato che hai pubblicato quando Michael Jackson è morto nel 2009.

Il segreto del successo della cella frigorifera sono i suoi livelli multipli. Il primo livello è costituito da hardware aziendale ad alte prestazioni, mentre i livelli inferiori utilizzano componenti più economici e in alcuni casi, forse per quelle foto di te con parentesi graffe che speri che nessuno possa mai vedere, librerie di backup su nastro. Il risultato finale è che ogni rack del server di archiviazione fredda può contenere 2 petabyte di memoria, o l'equivalente di 4.000 pile di penny che arrivano fino alla luna.

Costruire per il futuro

Sebbene Facebook abbia portato Internet più veloce e altri benefici a Prineville, compresi oltre 1 milione di dollari in donazioni a scuole e enti di beneficenza locali, la sua presenza non è priva di controversie. L'Oregon sta cedendo un sacco di soldi alle agevolazioni fiscali per la società in un momento in cui l'economia locale, ancora contratta dalla bolla immobiliare del 2008, supera la media nazionale.

Tuttavia, 1, 65 miliardi di persone non avrebbero accesso a Facebook senza questo avamposto nel deserto e i suoi data center gemelli. E anche se dà gli ultimi ritocchi al suo quarto edificio Prineville, la società è ben avviata verso il completamento di un quinto centro in Texas. Ma se questo ti fa sentire in colpa per l'energia consumata dalla tua navigazione su Facebook, non dovrebbe. Secondo Patchett, un singolo utente che naviga su Facebook per un anno intero consuma meno energia di quanto è necessario per preparare un latte. In altre parole, puoi rinunciare a un solo viaggio su Starbucks e scorrere il feed di notizie fino al contenuto del tuo cuore.

In che modo questa enorme struttura nel deserto dell'Oregon fa funzionare Facebook