Video: Как устроена IT-столица мира / Russian Silicon Valley (English subs) (Novembre 2024)
Guardando il keynote della Conferenza mondiale degli sviluppatori di Apple di questa settimana e della conferenza I / O di Google di due settimane fa, ciò che mi ha spiccato di più è stato lo sforzo che entrambe le aziende, così come Microsoft, stanno facendo per creare sistemi intelligenti che sappiano il più possibile su di te.
Tali sistemi sanno chi sei, dove sei e tutte le informazioni sullo schermo, generalmente con l'obiettivo di agire come un "assistente personale" che anticipa le tue esigenze. Questo è un obiettivo estremamente ambizioso che una di queste aziende sembra comprendere potrebbe essere il prossimo grande passo nel campo dell'informatica.
Nel caso di Apple e Google, altre offerte annunciate nelle loro note chiave potrebbero ottenere maggiore attenzione o avere un impatto più visibile a breve termine. Google Foto ha ricevuto molta attenzione; sia Apple Pay che Android Pay sembrano essere sul punto di diventare molto più banali, e i miglioramenti in Android Wear e WatchOS potrebbero presagire un flusso di applicazioni per i dispositivi indossabili. Ma il passaggio a sistemi totali più intelligenti e più completi potrebbe rivelarsi il più grande impatto a lungo termine.
Apple, Google e Microsoft stanno arrivando a questo da diverse angolazioni. Ma sembrano convergere su sistemi che hanno un front-end mobile che può essere controllato digitando o vocalmente, supportato da una serie di servizi e processi basati su Internet che contengono un'enorme quantità di dati su di te e fanno inferenze basate su quei dati e su quello che stai facendo.
La strada per questa convergenza è stata lastricata da una serie di presentazioni negli ultimi anni. Molti hanno lavorato su assistenti personali per anni e Siri è stato originariamente sviluppato come applicazione autonoma da uno spin-off di SRI International. Nel 2011, Apple ha introdotto Siri come "assistente virtuale" con l'iPhone 4s, fungendo principalmente da front-end per cose come la ricerca sul Web, il clima locale e la ricerca dei ristoranti. Nel 2012, Google ha introdotto Google Now come parte di Android 4.1 Jelly Bean, fornendo informazioni su una serie di "carte" che rispondevano alle domande. Nel tempo, questo è cresciuto per fornire più informazioni e coprire più domini.
All'inizio, pensavo che entrambi fossero interessanti, ma il controllo vocale sembrava più un "trucco da salotto" che un'applicazione utile.
Ma negli ultimi anni, entrambi sono migliorati rapidamente. In parte, avere più utenti ha dato a entrambe le aziende più dati con cui lavorare. Questo, combinato con algoritmi più intelligenti e molto lavoro sull'elaborazione del server, ha portato a sistemi che ora sono molto più precisi nel capire cosa stai chiedendo di quanto non fossero al lancio. Entrambi sono ora in grado di rispondere alle domande in più domini. E Google Now può dedurre informazioni come la posizione in cui casa e ufficio si basano sulle posizioni tipiche.
Microsoft ha introdotto Cortana lo scorso anno come parte della versione Windows Phone 8.1, descrivendola come il primo "assistente digitale" veramente personale perché comprendeva di più ciò che hai fatto in altre applicazioni oltre alla ricerca Web. Potrebbe fare cose come impostare promemoria e capire chi era importante per te e chi no, e anche se non c'erano tanti utenti, anche negli ultimi anni sembra essere migliorato. Cortana ora farà parte di Windows 10 anche su desktop e laptop.
Questo ci porta agli annunci più recenti, in cui tutti e tre i fornitori sembrano prendere in prestito funzionalità dagli altri e cercare davvero di migliorare le loro offerte.
Google Now On Tap
A Google I / O un paio di settimane fa, il vicepresidente senior di Google Sundar Pichai ha parlato di come l'azienda continuasse a concentrarsi sulla ricerca. Ma quando si è trattato di funzionalità dell'ultima versione di Android, ciò che ha attirato la mia attenzione è stata la serie di nuove funzionalità per l'assistente personale di Google Now chiamato "Now on Tap".
Pichai ha parlato dell'investimento di Google in deep learning e machine learning, affermando di aver aiutato Google a ridurre il tasso di errore delle parole nel riconoscimento vocale dal 23 all'8% nell'ultimo anno.
Google Now ha già alcune funzionalità contestuali: ad esempio, sa dove ti trovi, quindi può stimare il tempo necessario per tornare a casa e può visualizzarlo sulle varie "schede" che utilizza per visualizzare informazioni o all'interno delle notifiche.
Ma Aparna Chennapragada, direttore di Google Now, ha dichiarato: "Ci siamo chiesti come possiamo ottenere risposte rapide a domande rapide senza lasciare il contesto, come possiamo aiutarti a fare le cose nel minor numero di passaggi possibile?" Il risultato, ha detto, è stato un nuovo servizio per assisterti "nel momento", indipendentemente da quello che stavi facendo al telefono. Questo è Now On Tap, e ha detto che combina il Knowledge Graph di Google - la sua comprensione di oltre 1 miliardo di entità (come squadre di baseball e stazioni di servizio) - con il contesto e le connessioni con altre applicazioni per darti informazioni in modo proattivo.
Nella dimostrazione che ha mostrato, ha ricevuto un messaggio all'interno di un'app che suggeriva un ristorante per cena e le chiedeva di ritirare il lavaggio a secco. Tenendo premuto il tasto Home, è stata visualizzata la scheda Google Now e la funzione Now on Tap ha recuperato le informazioni di base sul ristorante, inclusi collegamenti a mappe di navigazione, Yelp e OpenTable; imposta anche un promemoria sul lavaggio a secco. Toccando il link OpenTable si apriva l'app, ma in modo più impressionante l'apriva direttamente alla pagina di quel ristorante.
L'idea è che il sistema operativo ora capisca il contesto in cui ti trovi e cosa stai facendo sul resto del dispositivo. Un altro esempio è che se ascolti musica, puoi semplicemente tenere premuto il tasto Home e porre una domanda sulla canzone. Google Now saprà quale brano sta suonando e potrebbe quindi rispondere a domande al riguardo.
"Puoi ottenere informazioni istantaneamente", ha detto Chennapragada. "In tutti questi esempi - l'articolo che stai leggendo, la musica che stai ascoltando, il messaggio a cui stai rispondendo - la chiave è capire il contesto del momento. Una volta che ha capito, è in grado di darti risposte rapide per domande veloci, per aiutarti a fare le cose ovunque ti trovi al telefono ".
Apple sottolinea l'intelligenza
Lunedì, durante il suo keynote del WWDC, Apple ha discusso di una serie di cambiamenti in arrivo su iOS 9, ma ha guidato il concetto di "intelligence".
Craig Federighi, vicepresidente senior dell'ingegneria del software di Apple, ha parlato di come rendere Siri un "assistente proattivo" che può fare cose come ricordarti di un'attività specifica o di un link specifico in un browser in un momento particolare o quando arrivi in una determinata posizione. Ad esempio, se ricevi un messaggio di testo su un evento imminente, puoi dire a Siri di "ricordarmelo" e capirà che ti stai riferendo all'evento e imposta un promemoria. Può fare cose come aggiungere automaticamente gli inviti in un messaggio di testo ai tuoi calendari.
Può ricordare le app che tendi a utilizzare in una particolare ora del giorno e presentarle in una semplice icona, e ora aggiunge "schede descrittive" che ti danno maggiori informazioni sui risultati di una ricerca (che sembrava simile nel concetto alle carte in Google Now).
E generalmente sembra solo essere migliorato. Federighi ha dichiarato che Apple ha registrato una riduzione del 40% del tasso di errore delle parole nell'ultimo anno al 5%. Ed è più intelligente gestire le cose nel sistema stesso, ora in grado di rispondere a domande in linguaggio naturale come "mostrami foto dallo Utah lo scorso agosto".
Cosa più interessante, offre un'API per la ricerca, in modo che possa trovare contenuti nelle app. Ad esempio, ha parlato della possibilità di collegarsi in profondità all'app Airbnb per trovare affitti disponibili in una determinata area; o cercare informazioni sulle ricette in un'altra applicazione.
In una demo, ha mostrato una nuova schermata di ricerca a cui accedi scorrendo direttamente dalla schermata principale e in che modo il sistema stesso fornisce suggerimenti su chi potresti voler contattare, in base ai tuoi contatti più frequenti e ai prossimi eventi. Ha mostrato come si può quindi "collegare in profondità" in applicazioni specifiche per fornire maggiori informazioni. Funzionalità simili erano disponibili in Siri.
Una cosa che Apple ha sottolineato è stata la privacy, con Federighi che dice "Siamo stati in grado di portare intelligenza durante l'esperienza in iOS 9, ma lo facciamo in modo da non compromettere la tua privacy". In quello che sicuramente sembrava uno scavo al modello basato sulla pubblicità di Google, ha detto che Apple non estrae le tue foto, e-mail, foto o informazioni sul cloud. Ha detto che tutte le informazioni sono fatte sul dispositivo e rimangono sul dispositivo sotto il tuo controllo e quando il sistema deve inviare informazioni al cloud per effettuare ricerche o cercare traffico, lo fa in modo anonimo senza informazioni condivise con terze parti. "Hai il controllo", ha detto.
Cortana Going Cross Platform
Puoi sostenere che Microsoft ha avuto un vantaggio nel fornire molte delle funzionalità di assistente personale con il suo assistente Cortana per Windows Phone. È stato il primo dei tre grandi assistenti telefonici a cercare di agire come un vero assistente, in termini di pianificazione dei promemoria e di integrazione più profonda con alcune delle applicazioni telefoniche.
Cortana fa parte di Windows 10 anche su desktop e notebook. Più di recente, Microsoft ha annunciato che una versione di Cortana sarebbe arrivata su telefoni iOS e Android insieme a un'app "Phone Companion" che collega il PC a Cortana, in modo da poter avviare le attività su un dispositivo e completarle su un altro.
Come ha descritto Joe Belfiore di Microsoft, "Puoi fare in modo che Cortana ti ricordi di prendere il latte la prossima volta che vai al negozio di alimentari, quindi il tuo telefono si sveglia e ronza con il promemoria. Sarai in grado di tracciare un volo utilizzando Cortana sia sul telefono che sul PC e ottieni gli aggiornamenti sul dispositivo in uso per non perdere nulla ".
Conclusione
In molti modi, stiamo ascoltando tutte e tre le società che si muovono insieme, in particolare in sforzi "proattivi". Google e Apple hanno affermato che i loro strumenti sarebbero più "proattivi", usando il termine per descrivere come vogliono che i loro assistenti personali appaiano almeno come se fossero in grado di anticipare quello che stai cercando.
Tutti e tre si stanno concentrando su una migliore connessione con le altre applicazioni del sistema, con Apple e Google che annunciano un focus sul "deep linking". In particolare, desiderano collegarsi a cose all'interno di un'app, come ad esempio accedere alla schermata corretta in OpenTable per prenotare un tavolo. All'I / O, il vicepresidente dell'ingegneria per Android Dave Burke ha mostrato come Android M abbia ora modi migliori per i collegamenti di andare dai collegamenti via e-mail o siti Web al posto giusto in un'applicazione, senza l'attuale schermata di "disambiguazione".
Il risultato di tutto ciò è una confusione delle linee tra il sistema operativo e le app che lo eseguono, per offrire un'esperienza più fluida e sistemi che sanno davvero molto di più su di te.
Tutto ciò dovrebbe essere abbastanza utile. Ma per una serie di ragioni, tutto ciò può anche essere spaventoso. È fin troppo facile immaginare la possibilità di un uso improprio dei dati, sia per un marketing troppo zelante sia per vere e proprie invasioni della privacy. Sono curioso di sapere come ognuna delle aziende affronterà questo problema. Mi chiedo se uno dei motivi per cui Google non ha definito il suo servizio un "assistente personale" sia perché sembra un po 'scoraggiante da un'azienda il cui modello di business principale è orientato alla raccolta di dati sulle persone e al loro utilizzo per indirizzare meglio i messaggi di posta elettronica.
È anche facile sopravvalutare le capacità di questi sistemi. Il concetto di una macchina onnisciente e onniveggente può essere spaventoso, ma non sono preoccupato per nessuno di questi sistemi che sviluppano "un'intelligenza artificiale forte" nel senso di The Terminator 's Skynet o 2001: A Space Odyssey 's HAL in qualsiasi momento nel prossimo futuro. Come ha detto un partecipante a un recente panel, ho partecipato, "Pensa Jarvis, non HAL", parlando dell'utile intelligenza in tuta indossata nei film di Iron Man, al contrario della macchina omicida del 2001. Per i prossimi anni, la domanda non sarà se questi sistemi siano troppo intelligenti, ma se saranno abbastanza intelligenti da essere davvero utili o ci troveremo a usarli semplicemente come front-end per le ricerche sul Web.
Certo, il diavolo è nei dettagli e non sapremo davvero quanto bene funzionerà nessuno dei sistemi fino alla consegna delle nuove versioni. Mentre il riconoscimento vocale sta migliorando, espandere questo a nuovi domini comporta ulteriori sfide. E non sono chiaro su quanto un buon lavoro faranno i sistemi nel farti scegliere i servizi che vuoi usare in contrapposizione al default di Apple o dei servizi di Google.
Ma il concetto generale è chiaro e l'utilità potrebbe essere eccezionale. Se distribuiti correttamente, tali servizi dovrebbero rendere i nostri dispositivi più semplici da usare, più intelligenti e più personalizzati. Avranno sfide e solleveranno alcune preoccupazioni, ma suppongo che faranno di più per cambiare il modo in cui interagiamo con i nostri dispositivi di qualsiasi cosa dal touchscreen.