Sommario:
- Lens, Assistant e Photo utilizzano le funzionalità AI
- Data center AI-First e nuovi strumenti di sviluppo
Video: 44 Gatti | Canzone "44 Gatti La serie" [KARAOKE] (Novembre 2024)
Per me, il tema principale della conferenza I / O di Google della scorsa settimana era "democratizzare l'IA", in altre parole, rendere l'IA accessibile sia agli utenti finali attraverso il suo utilizzo in una varietà di servizi Google, sia agli sviluppatori attraverso nuovi strumenti, programmi e persino l'hardware progettato attorno al framework TensorFlow AI di Google.
Il CEO di Google Sundar Pichai ha iniziato la conferenza con un keynote in cui ha nuovamente sottolineato che la società stava passando da un approccio mobile-first a un approccio AI-first, analogamente a quanto ha affermato l'anno scorso.
Ha affermato che Google stava "ripensando a tutti i nostri prodotti e applicando l'apprendimento automatico e l'intelligenza artificiale per risolvere i problemi degli utenti". Ha detto che gli algoritmi di machine learning influenzano già la classifica dei diversi risultati nella ricerca e come Street View ora riconosce automaticamente i segni. Altri servizi stanno diventando più intelligenti a causa dell'intelligenza artificiale, ha affermato, come ad esempio il modo in cui Google Home ora supporta più utenti e in che modo Gmail sta implementando una funzione di "risposta intelligente" in cui suggerisce automaticamente risposte alle e-mail.
A tal fine, ha fatto una serie di annunci di prodotti AI, sia per i consumatori che per gli sviluppatori.
Lens, Assistant e Photo utilizzano le funzionalità AI
Per gli utenti finali, il più visibile di questi nuovi sforzi è Google Lens, un insieme di capacità di elaborazione basate sulla visione in grado di comprendere ciò che stai vedendo e agire, sia in Google Assistant che in Google Foto.
Ad esempio, ha dimostrato come è possibile scattare una foto di un fiore e come Google Lens ora può identificarlo. Più prosaicamente, può scattare una foto di un nome utente e una password per il Wi-Fi e quindi capire automaticamente che vuoi connetterti e farlo per te. Altri esempi includono scattare una foto dell'esterno di un ristorante e far capire al software di cosa si tratta, quindi mostrare all'utente recensioni e menu. Non è tutto completamente nuovo, ma posso immaginare che sarà abbastanza utile, il tipo di cosa che useremo praticamente tutti tra qualche anno. Google afferma che questo verrà implementato tra pochi mesi.
Google Assistant continua a diventare più intelligente e incorporerà Google Lens, anche se la più grande novità è che Assistant sta arrivando su iPhone.
La popolare app Google Foto sta anche ottenendo una serie di altre nuove funzionalità basate sull'intelligenza artificiale, tra cui la "condivisione suggerita", in cui selezionerà automaticamente le foto migliori e ti suggerirà di condividerle con le persone nelle foto. Google Foto sta anche aggiungendo una funzione che ti consentirà di condividere automaticamente tutto o parte del tuo
Data center AI-First e nuovi strumenti di sviluppo
Sul lato interno, Pichai ha parlato di come la società "ripensasse" la sua architettura computazionale per costruire "data center AI-first". Ha affermato che Google utilizza le sue attuali unità di elaborazione tensoriale (TPU) in tutti i suoi servizi, dalla ricerca di base al riconoscimento vocale fino alla concorrenza AlphaGo.
Sono stato particolarmente incuriosito dall'introduzione da parte dell'azienda di una nuova versione del suo TPU 2.0, che Pichai ha affermato di essere in grado di raggiungere 180 teraflop (180 trilioni di operazioni in virgola mobile al secondo) per scheda a 4 chip o 11, 5 petaflop in ciascun "pod" di 64 schede di questo tipo. Questi sono ora disponibili per gli sviluppatori come "cloud TPU" su Google Cloud Engine e la società ha dichiarato che avrebbe reso disponibili 1000 TPU cloud per i ricercatori di machine learning tramite il suo nuovo TensorFlow Research Cloud.
Questo fa parte di una crescente spinta su TensorFlow, il framework di apprendimento automatico open source dell'azienda per gli sviluppatori, e la conferenza ha avuto una serie di sessioni volte a convincere un numero maggiore di sviluppatori a utilizzare questo framework. TensorFlow sembra essere il più popolare dei framework di apprendimento automatico, ma è solo una delle numerose scelte. (Altri includono Caffe, che è gestito da Facebook, e MXNet, gestito da Amazon Web Services.)
Sono andato a una sessione su "TensorFlow for Non-Experts" progettata per evangelizzare il framework e il
Poiché lo sviluppo di tali servizi è così difficile, Pichai ha trascorso molto tempo a parlare di "AutoML", un approccio che ha reti neurali che progettano nuove reti neurali. Ha affermato che Google spera che AutoML possa sfruttare le capacità che oggi hanno pochi dottorandi e che consentirà a centinaia di migliaia di sviluppatori di progettare nuove reti neurali per le loro esigenze specifiche in 3-5 anni.
Questo fa parte di un più grande sforzo chiamato Google.ai per portare l'IA a più persone, con Pichai che parla di una varietà di iniziative per usare l'IA per aiutare nella salute. Ha parlato di patologia e rilevazione del cancro, sequenziamento del DNA e scoperta di molecole.
Continuando il tema, Dave Burke, responsabile dell'ingegneria Android, ha annunciato una nuova versione di TensorFlow ottimizzata per dispositivi mobili chiamata TensorFlow lite. La nuova libreria consentirà agli sviluppatori di costruire modelli di deep learning più snelli progettati per funzionare su smartphone Android e ha parlato di come i progettisti di processori mobili stavano lavorando su acceleratori specifici nei loro processori o DSP progettati per inferire la rete neurale e persino allenarsi.
Nel keynote degli sviluppatori, Fei Fei Li, un professore di Stanford a capo della ricerca sull'IA di Google, ha affermato di essere entrata a far parte di Google "per garantire che tutti possano sfruttare l'IA per rimanere competitivi e risolvere i problemi che contano di più per loro".
Ha parlato molto di "Democratizzare l'IA", compresi i vari strumenti che Google mette a disposizione degli sviluppatori per applicazioni specifiche, come visione, linguaggio, traduzione, linguaggio naturale e intelligenza video, oltre a creare strumenti per la creazione di modelli personalizzati, come come TensorFlow, che è più facile da usare con più API di alto livello.
Ha parlato di come gli sviluppatori saranno ora in grado di utilizzare CPU, GPUS o TPU su Google Compute Engine. Ha fornito un esempio di quanto di un miglioramento della velocità alcuni modelli abbiano in esecuzione su TPU, affermando che le implicazioni di ricerca di questo sono significative.
Facendo eco a Pichai, ha propagandato il nuovo TensorFlow Research Cloud, dicendo che gli studenti e gli utenti di Kaggle dovrebbero fare domanda per usarlo; e ha concluso dicendo che l'azienda ha creato il suo team di cloud AI per rendere democratica l'IA, per incontrarti dove sei, con i più potenti strumenti di intelligenza artificiale di Google e per condividere il viaggio mentre li metti in uso.