Video: Firebase Создаем Базу Данных Для Android /Android Studio уроки (Novembre 2024)
In un certo senso, abbiamo visto due diversi Google in mostra alla conferenza degli sviluppatori I / O dell'azienda a Mountain View, che si è aperta ieri. Uno era il fiducioso Google, che estendeva la sua leadership nella ricerca e nei dispositivi mobili e i suoi punti di forza nell'apprendimento automatico ad altri mercati adiacenti, oltre a offrire alcuni nuovi strumenti impressionanti per gli sviluppatori. L'altro era un Google meno arrogante che stava recuperando terreno sul mercato per gli assistenti alla conversazione, le applicazioni di messaggistica e la realtà virtuale. La maggior parte dei titoli è andata a quest'ultima categoria, dove i cambiamenti sono più tangibili. Ma per la maggior parte degli sviluppatori, le estensioni e le modifiche ad Android e gli strumenti di sviluppo intorno ad esso avranno probabilmente un impatto più immediato.
( Sundar Pichai )
L'apprendimento automatico è stato il tema principale della conferenza, con il CEO di Google Sundar Pichai che ha aperto il keynote di martedì parlando di come la società stava evolvendo la ricerca per sfruttare maggiormente il suo lungo investimento nell'apprendimento automatico e nell'elaborazione del linguaggio naturale. Ha detto che Google ha fatto passi da gigante nel riconoscimento vocale, con le query vocali che ora rappresentano il 20 percento delle ricerche negli Stati Uniti; nel riconoscimento delle immagini, sia nel motore di ricerca che in Foto; e nella traduzione, che ora supporta 100 lingue diverse e traduce 140 miliardi di parole al giorno. Nel complesso, ha affermato, Google ha un "grafico della conoscenza" di 1 miliardo di entità: persone, luoghi e cose. E poi ha continuato a mostrare una varietà di nuovi prodotti e servizi che possono utilizzare questa conoscenza.
Il più ovvio è il nuovo Assistente Google, che sembra essere un assistente più conversazionale rispetto al servizio Google Now, progettato per fornire una finestra di dialogo bidirezionale focalizzata sull'ottenere risultati nel mondo reale e sulla comprensione del contenuto e del contesto. Ci sono state una serie di demo interessanti in cui l'Assistente è stato in grado di fare cose come rispondere alle domande e aiutarti a scegliere un film da vedere o un ristorante in cui cenare e effettivamente effettuare le prenotazioni.
Sembrava abbastanza buono, ma concettualmente sembra molto simile agli altri assistenti di conversazione che abbiamo visto come Siri di Apple, Cortana di Microsoft e Alexa di Amazon. In effetti, le demo mi hanno ricordato le demo iniziali per Cortana.
Pichai ha promosso l'idea che la ricerca sta cambiando, dicendo "non è sufficiente per dare loro i collegamenti, dobbiamo davvero aiutarli a fare le cose nel mondo reale". Mi ha ricordato la spinta dietro Google Now quattro anni fa, che ha funzionato abbastanza bene per l'azienda.
( Mario Queiroz )
Questa tecnologia farà parte di un nuovo dispositivo chiamato Google Home, in cui Pichai è stato gentile nell'indicare Amazon Echo, che sembra essere stato l'ispirazione. Come Echo, Home ha un assistente alla conversazione in grado di riprodurre musica, controllare più dispositivi in casa e rispondere alle domande. Mario Queiroz, vice presidente della gestione dei prodotti, ha mostrato alcune fantastiche aggiunte, come l'integrazione con Chromecast in modo da poter "trasmettere" musica o altri media ad altri oratori o su uno schermo TV.
Successivamente, il direttore tecnico Erik Kay ha mostrato Allo, essenzialmente una piattaforma di chat, con Google Assistant integrato in modo da rendere le tue conversazioni più intelligenti; e Duo, un'app di videochiamata 1: 1 con una svolta interessante che ti consente di vedere un'anteprima del video della persona che chiama prima di rispondere alla chiamata. Il concetto di bot di chat all'interno di un servizio di messaggistica (noto anche come "conversazioni come piattaforma") è stato al centro di Microsoft Build alcune settimane fa, e Facebook Messenger ha spinto questo concetto per un po '. Google ha già fatto una serie di tentativi nei social media e nella messaggistica - in effetti ha anche introdotto uno strumento chiamato Spaces per la connessione agli eventi - e non ha ancora avuto un grande successo. Mentre questi strumenti sembravano buoni nelle demo sul palco, non è chiaro se ci sia abbastanza nuovo qui per cambiarlo.
Per me, la cosa più sorprendente di questi prodotti e servizi è che Google li sta promuovendo così presto. La maggior parte sembra mirata per la fine dell'estate, ma sono stato sorpreso di non vedere più discussioni per gli sviluppatori su come possono legare i loro servizi all'assistente. Pichai ha detto che avrebbero avuto più tra qualche mese, ma sembra che Google sia un po 'indietro, e sta cercando di usare i suoi punti di forza per l'apprendimento automatico e la ricerca. D'altra parte, Facebook ha fatto un primo annuncio alla sua conferenza F8 e ci sono pochissimi chatbot per quella piattaforma, e anche la piattaforma bot di Microsoft è abbastanza nascente, quindi è davvero un mercato aperto.
( Clay Bavor )
Google si trova in una posizione leggermente diversa rispetto alla realtà virtuale, con Cardboard che fornisce una piattaforma popolare ma di fascia bassa. Google non sta cercando di competere con le soluzioni di fascia alta come Oculus Rift o HTC Vive, ma ha invece introdotto una piattaforma per VR chiamata Daydream che farà parte della prossima versione di Android N.
Clay Bavor, a capo del team VR di Google, ha parlato di come Android N è progettato per supportare prestazioni più elevate e bassa latenza, consentendo al refresh del "motion to photon" di essere inferiore a 20 ms, rendendolo più realistico. Inoltre, avrà una modalità VR con una propria interfaccia utente che gestisce correttamente cose come le notifiche in un ambiente immersivo. Come parte di questa versione, è disponibile una nuova schermata Home di Daydream per il lancio di contenuti VR, inclusi film e giochi, nonché una nuova versione del Play Store per VR che funziona all'interno dell'ambiente Daydream. Altre applicazioni includono una nuova versione di YouTube per i contenuti VR, una versione di Street View per spostarsi in luoghi diversi e Foto per rivivere i momenti preferiti.
Gran parte degli annunci VR riguardavano standard e specifiche. Per i telefoni, Bavor ha annunciato una serie di specifiche che i telefoni dovranno abbinare per specifici sensori, display e processori per essere chiamati "Daydream-ready". Questo non sembra essere molto diverso dai telefoni di fascia alta di oggi, ma dovrebbe chiarire quali telefoni sono pronti per Daydream. Inoltre, ha mostrato un design di riferimento per un auricolare che avrebbe una grande ottica e sarebbe più facile da indossare e da togliere, e, soprattutto, un nuovo controller con pochi pulsanti e un pannello a sfioramento che sembrava particolarmente impressionante. Bavor ha affermato che i primi dispositivi saranno disponibili da numerosi partner questo autunno, con gli strumenti di sviluppo disponibili ora.
Oltre agli annunci di prodotti di alto profilo c'erano molti più dettagli su Android N, la prossima versione del sistema operativo mobile che è già in versione beta e che dovrebbe essere finalizzata quest'estate.
Dave Burke, vicepresidente di Engineering responsabile di Android, ha affermato che le aree di interesse di questa versione sono prestazioni, sicurezza e produttività. Dal punto di vista delle prestazioni, ha sottolineato l'introduzione dell'API grafica 3D Vulkan, che promette prestazioni migliori con un sovraccarico della CPU inferiore e un nuovo compilatore di runtime che è molto più veloce e dovrebbe comportare installazioni di app più veloci. Per quanto riguarda la sicurezza, ha parlato della crittografia basata su file, dell'indurimento dei media framework e degli aggiornamenti continui, il che significa che il dispositivo si aggiornerà automaticamente, quindi non è necessario installare manualmente un aggiornamento. (La folla sembrava molto colpita da questo.) In termini di produttività, ha parlato del nuovo supporto multi-finestra per le modalità split-screen e picture-in-picture, che sembra essere un grande passo avanti rispetto alle singole funzionalità multi-finestra di aziende come Samsung e LG hanno aggiunto oltre alle versioni esistenti di Android. Ha anche menzionato piccoli cambiamenti, come migliori notifiche e supporto per gli standard Unicode-9 Emoji.
Android Wear, TV e Auto hanno ricevuto un po 'di attenzione - e ognuno ha avuto le proprie sessioni di breakout e le aree dello spettacolo - ma gran parte dell'attenzione era rivolta agli strumenti per sviluppatori. Sono rimasto molto colpito da alcune delle nuove funzionalità per gli sviluppatori. Jason Titus, vicepresidente di Developer Products, ha parlato dei progressi nel Web mobile, con oltre 1 miliardo di persone che utilizzano Chrome su dispositivi mobili, con supporto per pagine Web progressive e ora il programma AMP (Accelerated Mobile Pages) di Google per accelerare i siti Web.
( Stephanie Saad Cuthbertson )Stephanie Saad Cuthbertson (sopra), direttore della gestione dei prodotti per Android Studio, ha annunciato il rilascio di un'anteprima di Android Studio 2.2 incentrata su build più veloci, strumenti più intelligenti per la progettazione e il debug di applicazioni e un supporto più ampio della piattaforma. Ha detto che Android Studio è stato ora utilizzato dal 95 percento delle 125 migliori applicazioni. Nota che Studio 2.0 è stato appena distribuito all'inizio di quest'anno e Studio 2.1 che supporta Android N è uscito con la versione di anteprima di quel sistema operativo.
La grande novità è la piattaforma back-end Firebase, che ha iniziato come database NoSQL che Google ha acquisito 18 mesi fa, ma ora è diventata una suite di 15 strumenti di sviluppo, dal database, a messaggistica e notifiche cloud, configurazione remota e crash segnalazione. Ho pensato che i collegamenti dinamici, in cui un URL potesse produrre risultati diversi a seconda di dove veniva toccato, erano particolarmente interessanti. Tutto questo è legato all'analitica gratuita e sembrava una piattaforma davvero impressionante e ben integrata che dovrebbe risultare attraente per molti sviluppatori di app mobili. Firebase supporta applicazioni su Android, iOS e Web mobile, quindi Google lo stava promuovendo per applicazioni multipiattaforma, non solo per Android.
Una delle demo più interessanti è stata un'anteprima di Android Instant Apps, che consente a qualsiasi app di essere eseguita immediatamente anche se non è stata installata. Ellie Powers, Group Product Manager per Android, ha affermato che ciò comporta la modularizzazione delle app esistenti in modo che il Play Store scarichi solo i pezzi necessari per visualizzare il contenuto specifico. Questo potrebbe essere un grosso problema - se un amico vuole che tu partecipi a una conversazione in un'app di messaggistica e ti mandi un link, l'idea è che potresti semplicemente continuare la conversazione piuttosto che dover installare l'app. Questo potrebbe essere un cambiamento significativo e presenta un approccio diverso alla distinzione tra web mobile e app. Le App istantanee verranno eseguite sui telefoni fino a Jelly Bean e dovrebbero iniziare gradualmente a essere lanciate entro la fine dell'anno.
Pichai è tornato per parlare di più sull'apprendimento automatico, discutendo di come la società ha rilasciato il suo framework di apprendimento automatico TensorFlow lo scorso anno e la scorsa settimana ha pubblicato una versione open source del suo parser di linguaggio naturale. Sembra chiaro che sarà un'area su cui Google spera di differenziare la propria piattaforma cloud dagli altri fornitori.
Una rivelazione affascinante è stata che il programma AlphaGo che giocava a livello di campionato Go era basato su hardware personalizzato, che Pichai descriveva come unità di elaborazione tensori (TPU). Nelle sessioni e interviste successive, Google ha spiegato che utilizza migliaia di questi ASIC personalizzati (circuiti integrati specifici dell'applicazione) da più di un anno per accelerare molte applicazioni, tra cui risultati di ricerca di ranking (RankBrain), mappatura e navigazione (Street View), elaborazione di foto, riconoscimento vocale e traduzione linguistica. Ha detto che il TPU ha prodotto "un ordine di grandezza" prestazioni migliori per watt per l'apprendimento automatico. Ciò è in gran parte dovuto al fatto che questi tipi di attività funzionano bene con una precisione ridotta, il che consente a Google di semplificare la progettazione e impacchettare più elementi di elaborazione su un singolo chip. Ha detto che questo era "un ordine di grandezza" migliore delle piattaforme di apprendimento GPU.
Pichai ha affermato che il lavoro di Google sull'apprendimento automatico può applicarsi a una vasta gamma di settori, tra cui la robotica e l'assistenza sanitaria, e ha sottolineato il lavoro svolto per rilevare la retinopatia diabetica. "Sono incredibilmente entusiasta dei progressi che stiamo facendo con l'apprendimento automatico e l'intelligenza artificiale", ha detto, aggiungendo che non si trattava di macchine o umani, ma invece il vero test è se gli umani possono ottenere molto di più con il supporto di AI.
Nel complesso, l'apprendimento automatico era il tema principale, ma era interessante il modo in cui Google sta cercando di usarlo come bridge per competere in più mercati, come i servizi di messaggistica e cloud. Ma per la maggior parte degli sviluppatori, la mia ipotesi è che i cambiamenti in Android N, Android Studio e i servizi Firebase riceveranno maggiore attenzione nei prossimi mesi.