Video: NPC2018: Plenary Session - SaaS Nation - India's Trillion Dollar Opportunity (Novembre 2024)
Una cosa che mi ha colpito del summit di Bloomberg Enterprise Technology di ieri è stata l'attenzione per la gestione dei dati in nuovi modi - in altre parole, per gestire i cosiddetti "big data".
Alcune delle conversazioni hanno affrontato il valore dei big data e se si trattasse davvero di una "opportunità da trilioni di dollari", mentre altre hanno affrontato le sfide specifiche che le singole organizzazioni e l'industria nel suo complesso affrontano nell'implementazione più ampia di queste nuove tecniche.
Gerard Francis, Global Head di Bloomberg Enterprise Solutions, Bloomberg LP ha iniziato la giornata suggerendo che la cosa più importante che le aziende possono fare è "capitalizzare il valore dei dati utilizzandoli" e concentrarsi su accesso, qualità e flusso di dati all'interno di un'organizzazione. Nei pannelli successivi, si è parlato molto di nuovi strumenti che trattano i dati, nonché di problemi specifici relativi all'archiviazione, alla gestione e alla ricerca delle persone che gestiscono i dati.
In un panel generale sulle tendenze aziendali, Dwight Merriman, presidente e co-fondatore di MongoDB, ha dichiarato che il livello dati della traccia dell'applicazione sta avendo "la più grande interruzione e il cambiamento che abbiamo visto in 25 anni". Ha affermato che le aziende utilizzano database relazionali da 25 anni o più, diventando la tecnologia più vecchia dello stack. Ma ora stanno accadendo cose con l'archiviazione basata su file come Hadoop e nuove tecnologie di database, spesso raggruppate come "NoSQL". Ha sottolineato che i Big Data non riguardano "grandi", ma piuttosto la forma dei dati, i tipi di dati e il passaggio verso la gestione dei dati in tempo reale.
Il Chief Information Officer di Google Benjamin Fried ha concordato sul fatto che la maggior parte delle aziende non ha problemi di "big data". Molti dei set di dati - con cose come dati sulle risorse umane e dati finanziari - non sono così grandi, ha detto. L'importante è la flessibilità necessaria per gestire correttamente i dati.
Che cosa sono i Big Data comunque?
Quel concetto - che la flessibilità è importante quanto la dimensione dei dati - è stato ripreso in un altro pannello più tardi nel corso della giornata. Lì, i partecipanti hanno concordato che le aziende si occupano da molto tempo di applicazioni pesanti per i dati, ma la scala è cambiata di recente. Ad esempio, Mark F. Bregman, Senior Vice President e Chief Technology Officer di Neustar, ha osservato che alcune aziende stanno ora "immagazzinando tutto" nella speranza che si riveli utile.
"Big è meglio definito come complessità", secondo Gary Bloom, CEO e Presidente di MarkLogic. Ha notato che molte cosiddette applicazioni "big data" coinvolgono molti tipi diversi di dati, ma non il tipo di volume che normalmente si sente nelle applicazioni "big data".
Ha citato un esempio di traffico aereo che combina dati meteorologici, dati aeroportuali, dati geospaziali, dati di volo, dati di prenotazione della compagnia aerea e dati sociali. Ha osservato che trattare dati eterogenei era davvero difficile da fare con i database relazionali tradizionali, facendo eco ai precedenti commenti di Merriman di MongoDB che questo era il "primo passaggio generazionale nel database in 25 anni" da quando siamo passati dal mainframe all'era dei database relazionali.
Ha notato che molte persone parlano dei dati dei social media, ma devono davvero essere combinati con altri dati per avere davvero qualcosa su cui puoi capitalizzare. La combinazione di questi dati è "il valore reale".
Naturalmente, alcune applicazioni implicano molte informazioni, con Bregman che afferma che l'eterogeneità è solo un fattore. Ha citato i dati DNS, che possono facilmente generare 8 TB di informazioni al giorno e la necessità di archiviare tali cose in Hadoop. Bregman e gli altri hanno notato che quando si tratta di "capitalizzazione dei dati", il valore reale non è nei dati grezzi, ma invece nell'analisi quando diventa qualcosa che puoi usare. Gli altri membri del panel concordarono.
Il CEO di Streambase Mark Palmer ha affermato che la combinazione di grandi quantità di dati con l'analisi di streaming è stata importante in molte applicazioni; e ha parlato del valore aggiunto che potrebbe essere creato combinando l'analisi tradizionale e in tempo reale.
Ma ha convenuto che la complessità dei dati è un problema. Ha citato come Vivek Ranadivé, che gestisce Tibco (che ora possiede Streambase), ha acquistato una squadra di basket in parte per capire come la tecnologia può migliorare l'esperienza del tifoso. Ha nuovamente parlato di "unire tipi diversi di dati", partendo da uno stream di Twitter ma sfruttando anche altri tipi di dati.
Bloom ha osservato che tutto dipende dall'applicazione, dicendo che "la latenza è negli occhi di chi guarda". Alcune applicazioni devono analizzare i dati sul cavo prima ancora che colpiscano il database, mentre altri no.
Bregman ha sollevato il problema che invece di essere difficile spostare le risorse di calcolo, ora sta diventando molto più difficile spostare i dati. Ha osservato che per molte applicazioni, il "blocco" è la posizione dei dati. Una volta archiviati i dati in un cloud pubblico, è molto difficile spostarli. Di conseguenza, ha affermato, molte organizzazioni desiderano archiviare enormi quantità di dati nelle proprie posizioni, quindi essere in grado di spostarsi su provider diversi per la funzionalità di calcolo. Prendendo in prestito un termine da Bloom di MarkLogic, ha parlato di come le organizzazioni potrebbero aver bisogno di un "data center centrato sui dati" come luogo in cui conservare enormi quantità di dati.
I Big Data sono "un'opportunità da trilioni di dollari?"
Porter Bibb di MediaTech Capital Partners, Doug Cutting di Cloudera, Gaurav Dhillon di Snaplogic e Jason Kelly di Bloomberg LinkUn altro panel ha discusso le opportunità e le sfide poste dai big data, riflettendo su un commento di Porter Bibb, Managing Partner di MediaTech Capital Partners. Bibb ha detto che in realtà ci sono più di un trilione di dollari di benefici per le aziende che usano le nuove tecniche. Ad oggi, ha affermato, "non abbiamo nemmeno iniziato a sfruttare il potenziale offerto da questa tecnologia".
Bibb ha parlato dell'importanza per le organizzazioni di allineare la propria strategia di dati alla strategia aziendale ed era preoccupato che la maggior parte dei sistemi aziendali e governativi non fossero allineati.
In quella prima sessione, Scott Weiss di Andreessen Horowitz ha dichiarato che "Hadoop è come uno stoccaggio criogenico", così il moderatore Jason Kelly di Bloomberg Link ha chiesto all'architetto capo di Cloudera Doug Cutting, che era uno dei creatori di Hadoop in primo luogo, come ha visto quello.
Cutting ha detto che Hadoop sta permettendo alle persone di lavorare con più dati. Ha affermato che le organizzazioni stanno estraendo i dati dal nastro, rendendoli invece online e utilizzabili. I clienti passano dal lavorare con 90 giorni di dati a cinque o 10 anni di dati in un "archivio attivo".
In questo pannello sono emersi nuovamente alcuni problemi specifici relativi alla gestione di tutti questi dati. Il CEO di Snaplogic Gaurav Dhillon ha parlato di "gravità dei dati", affermando che non ha senso prendere i dati locali in Hadoop e trasferirli nel cloud. Allo stesso tempo, se ci sono dati nel cloud, come l'analisi del flusso di clic, non ha senso spostarli in locale. Di conseguenza, ha affermato, sta vedendo pochissime "opportunità transfrontaliere" nello spostamento dei dati.
Cutting ha detto che non credeva che ci fosse davvero una carenza di data scientist. Invece, ha detto che ci sono molte persone che capiscono la matematica e gli affari, ma non hanno gli strumenti. Puoi imparare le basi degli strumenti e cosa fanno in un paio di settimane, ha detto, ma capire la tua attività richiede anni. Eppure ci sono molte persone che lo capiscono.
Dhillon ha anche riflesso le preoccupazioni sulla legislazione relativa a quali informazioni possono essere archiviate dove. Ha detto che alcuni mercati verticali richiedono che le informazioni siano archiviate in loco, ma era preoccupato per cose come i requisiti di non spostare i dati dal suo paese di origine. Gran parte di questo è una reazione eccessiva a cose come le rivelazioni di Snowden e le violazioni dei dati, ha detto, sottolineando che "la fretta di legiferare non è mai buona".
Alla domanda se fosse preoccupato che le violazioni di Snowden e Target stessero spaventando i clienti sui dati, Cutting ha affermato di essere preoccupato che così tante persone siano preoccupate. Molta gente ha paura della tecnologia, ha detto, ed è stato un fallimento del settore mettere a proprio agio i clienti nell'idea che i loro dati non fossero utilizzati. "Non devi essere inquietante", ha detto.
Alla fine, ci sono state molte discussioni sulle valutazioni, con Bibb che ha suggerito che il recente investimento di Intel in Cloudera è stato un "grosso problema", in quanto conferma ciò che l'azienda sta facendo. Ha detto che altre grandi aziende come Oracle, IBM, Microsoft e Amazon erano in bilico attorno a società di analisi predittiva. "La corsa all'oro è solo all'inizio."
Dhillon ha affermato che le valutazioni riflettono ciò che le aziende idrauliche apportano al mercato dei big data. Ha detto che era felice di vedere questi tipi "pick and shovel" ottenere buone valutazioni, ma ha detto che aveva un po 'di paura che le valutazioni stessero anticipando il mercato.
Bibb ha affermato di ritenere che i big data potrebbero essere sovraesposti nei media, ma che sono sottoesposti nella "c-suite" (ovvero CEO, CFO e altri dirigenti). Ha detto che ha un "enorme potenziale economico che deve ancora essere scoperto ".