Casa Lungimiranza Dispositivi di fantascienza che sono (quasi) reali

Dispositivi di fantascienza che sono (quasi) reali

Sommario:

Video: Intelligenza artificiale, la realtà ed il sogno, superando le paure | Paolo Traverso | TEDxTrento (Novembre 2024)

Video: Intelligenza artificiale, la realtà ed il sogno, superando le paure | Paolo Traverso | TEDxTrento (Novembre 2024)
Anonim

Come molte persone, adoro la fantascienza e spesso vado a spettacoli come il CES sperando di vedere il tipo di tecnologia di cui leggiamo nei libri o che vediamo nei film. Ma mentre il CES quest'anno aveva una grande tecnologia, è stato anche un buon promemoria del fatto che siamo ancora molto lontani dalla tecnologia che immaginiamo nei libri e nei film; non abbiamo ancora auto a guida autonoma, tanto meno robot utilizzabili o il ponte ologrammi.

Tuttavia, ho visto molti progressi, anche se queste tecnologie hanno ancora molta strada da percorrere prima che siano effettivamente disponibili nel mondo reale. Poi di nuovo, probabilmente è anche una buona cosa che Skynet non sia ancora operativo.

Le auto CES non sono tutte auto-guida

Ogni anno sembra che il CES diventi più uno spettacolo automobilistico e quest'anno la stragrande maggioranza della North Hall era piena di produttori automobilistici e dei loro fornitori.

Mi aspettavo di vedere - e di aver visto - molte persone che parlavano di veicoli autonomi. Nvidia ha trascorso gran parte del suo keynote pre-show discutendo il suo nuovo sistema per tali veicoli, con particolare attenzione a Xavier, "il SoC più potente del mondo". Xavier ha 9 miliardi di transistor in un die da 350 mm2, con una CPU a 8 core personalizzata, una nuova GPU Volta a 512 core, un nuovo acceleratore per l'apprendimento profondo, nuovi acceleratori di visione artificiale e nuovi processori video HDR 8K. La società afferma di fornire 30 trilioni di operazioni al secondo consumando solo 30 watt.

Ciò costituisce il cuore del sistema di guida Pegasus dell'azienda, che si basa su due SoC Xavier (sistemi su un chip) e due GPU Nvidia di prossima generazione. Nvidia ha dichiarato che i suoi clienti riceveranno i primi campioni di Pegasus, che è in grado di eseguire fino a 320 trilioni di operazioni al secondo di prestazioni di elaborazione, a metà 2018. Ha lo scopo di abilitare veicoli completamente autonomi (Livello 5).

Nel frattempo, Intel ha spinto la sua acquisizione Mobileye e ha parlato di come sono i suoi chip in molte auto già in produzione, osservando che questo numero sta crescendo. La società ha parlato di nuove partnership per costruire mappe ad alta definizione da utilizzare nelle città intelligenti e la sua attenzione alla sicurezza e ai sistemi avanzati di assistenza alla guida (ADAS) su veicoli completamente autonomi.

Allo stesso modo, ARM ha trascorso molto tempo a parlare dei vari fornitori del settore automobilistico che usano i suoi processori in tutto, dall'ADAS alle luci intelligenti.

In effetti, mentre gran parte della discussione al CES riguardava veicoli autonomi - dai produttori di automobili e produttori di chip ai produttori di tutti i tipi di componenti da LIDAR a display per software - ci sono state anche molte discussioni che si sono concentrate su altre tecnologie automobilistiche allo show.

Ci sono state alcune dimostrazioni di veicoli a celle a combustibile e persino alcuni concept car piuttosto carini. Non mi sono concentrato davvero su questi, ma erano molto interessanti.

La tecnologia di auto più strana che ho visto è stata l'esperimento di Nissan per controllare le auto dal pensiero, basato sull'idea che sai quando vuoi premere sulla pausa più velocemente di quanto la tua gamba possa reagire. Sebbene sia una teoria interessante, non sono sicuro di quanto sia pratico.

I robot ovunque, ma non i droidi che stai cercando

Sentiamo molto parlare di robot, ma ad eccezione di alcuni dispositivi "robotici" che svolgono una funzione specifica (come un aspirapolvere robot), non ci sono così tanti robot nel mondo reale come ti aspetteresti, dato tutto l'hype.

Al CES c'erano tutti i tipi di robot in mostra: dai robot domestici che fanno poco più che seguirti in giro, comportandosi come un eco Amazon su ruote, ai giocattoli progettati per interagire con i bambini, a macchine più specifiche che hanno fatto cose come giocare a scacchi o anche il ping pong, quest'ultimo apparentemente progettato più per attirare la folla che per vendere in gran numero.

Nel suo keynote, LG ha mostrato del suo robot domestico CLOi (che non funzionava davvero, ma è una demo), oltre a nuove versioni commerciali, tra cui una che serve cibo e bevande, un'altra che funge da portiere per consegnare i bagagli, e un terzo che funziona come un carrello della spesa con un lettore di codici a barre integrato. Queste sono idee interessanti, ma sembrano essere molto lontane dal diventare mainstream.

Per me, il più bello di questi era la nuova versione del cane robot Aibo di Sony, che ora è in grado di nuovi trucchi e può rispondere in modo diverso a persone diverse, usando il riconoscimento facciale. Aibo può anche fare cose come giocare con una palla, sdraiarsi e reagire al tuo tocco, che sembrano comportamenti molto simili a quelli di un cane. La versione giapponese ora disponibile non è economica; una versione americana deve ancora essere annunciata. Sembra molto divertente.

Tuttavia, la mia impressione generale è stata che nessuno di questi è affatto vicino ai robot che la gente immagina nei libri e nei film. Sono tutti molto limitati e spesso sono poco più che pezzi di conversazione. Ma le cose sembrano progredire.

Traduzione in tempo reale che puoi portare con te

Forse la tecnologia di fantascienza più vicina all'essere pronta per l'uso da parte dei consumatori è il traduttore universale. Anche se la parte "universale" non è ancora pronta, sono rimasto molto colpito dai numerosi miglioramenti della tecnologia di traduzione, in particolare tra due lingue, che è comunque ciò di cui abbiamo davvero bisogno.

Se vuoi qualcosa che puoi tradurre da una particolare lingua in un'altra (e viceversa), ora ci sono un certo numero di dispositivi commerciali che offrono tali funzionalità. Ci sono alcune app telefoniche che tentano di fare lo stesso (come Google Translate e Pixel Buds), ma sono rimasto colpito dalle demo di alcuni piccoli dispositivi che affermano di fare il lavoro con microfoni, software e altoparlanti sintonizzati sull'attività e che può funzionare con qualsiasi smartphone o anche senza.

La società di AI cinese iFlytek aveva due versioni diverse per la traduzione tra cinese mandarino e inglese: una che funziona offline e venderà per circa $ 150 e un'altra che fa un lavoro leggermente migliore ed è connessa al cloud tramite reti cellulari. Questo dispositivo viene venduto per circa $ 350. La società sta inoltre lavorando alla conversione dal cinese ad altre lingue. Non parlo mandarino, ma sembrava davvero impressionante.

Sourcenext, una società giapponese, stava dimostrando Pocketalk, un traduttore vocale bidirezionale portatile che afferma di essere in grado di lavorare in 63 lingue diverse. Le demo che ho visto presentavano il giapponese e l'inglese, e anche se sembrava molto buono, dato che non parlo giapponese, non potevo davvero esserne certo. Questo dovrebbe essere rilasciato a maggio.

Dal punto di vista del design, tuttavia, il dispositivo che mi è sembrato più interessante è stato il traduttore Mars di Naver, che utilizza la tecnologia di traduzione Papago dell'azienda, e un assistente chiamato Clova, sviluppato da Naver e dalla linea di servizi di messaggistica asiatica. Con questo design, porti un paio di auricolari, ne metti uno nell'orecchio e dai l'altro alla persona che parla l'altra lingua. Anche la dimostrazione, che utilizzava il coreano e l'inglese, sembrava impressionante (ma ancora una volta, non posso davvero dirlo). La società afferma inoltre che supporterà cinese e spagnolo.

Come ho già detto, non parlo nessuna delle lingue dimostrate, quindi non posso garantire quanto siano buoni i prodotti. Ma questi sembrano muoversi molto rapidamente nella giusta direzione.

La VR migliora, ma il ponte ologrammi è molto lontano

Le cuffie VR sono ora, ovviamente, all'ordine del giorno, ma la maggior parte delle persone che conosco che le usano le trovano divertenti solo per un breve periodo di tempo. Nel frattempo, le cuffie con realtà aumentata, come Google Glass, non hanno ancora preso piede, ad eccezione di alcune applicazioni altamente specializzate. Per me, questo perché la tecnologia non sembra essere abbastanza pronta per la prima serata: gli auricolari VR sono spesso pesanti e goffi, i dispositivi devono essere collegati o non sono abbastanza potenti e il display ha spesso un campo limitato di vista. Inoltre, la risoluzione è generalmente abbastanza scarsa da poter vedere i pixel, il che dà al display un "effetto porta sullo schermo".

Al CES di quest'anno ho visto alcuni segnali che stanno iniziando a migliorare.

Il Moon Mobile Theatre 3D di Royale offre un'esperienza più coinvolgente di guardare film utilizzando i doppi display AMOLED 1080p in un auricolare e una cuffia con cancellazione del rumore che copre le orecchie, in modo da poter praticamente solo ascoltare e vedere il film.

L'X1 di ThirdEye ha due display a 720p trasparenti per la realtà aumentata ed è rivolto principalmente ai mercati della sanità e dell'istruzione.

Rokid, un nuovo giocatore cinese, ha sfoggiato occhiali AR che assomigliano più a un prodotto di consumo, con occhiali che non sono molto più grandi dei normali occhiali da sole. Il dispositivo Rokid include una fotocamera frontale per il rilevamento dei volti e il riconoscimento vocale. Questo era solo un modello prototipo ed è poco chiaro quando arriverà sul mercato.

Forse il più interessante è stato il Vuzix Blade. (Vedi l'immagine in cima a questo post.) Vuzix ha spedito gli occhiali AR e VR sul mercato aziendale da qualche tempo, ma il Blade sembra sia più leggero che più vicino alla visione che la maggior parte delle persone ha degli occhiali AR. Sembrano occhiali da sole, ma con un piccolo display a colori sul lato della cornice, che include batterie, una fotocamera da 8 megapixel e utilizza Amazon Alexa come assistente vocale.

In un certo senso, questa è praticamente una versione aggiornata del concetto di Google Glass, in quanto è quasi al punto in cui posso vedere i consumatori che lo utilizzano. (Google Glass esiste ancora per il mercato aziendale, dove compete con i prodotti Vuzix, Epson e altri.) Gli occhiali che ho provato sono stati abbastanza buoni: relativamente leggeri, e mentre non avevano tutto ciò che mi piacerebbe vedere questo tipo di occhiali - il display non è ancora buono come mi piacerebbe - è quasi un vero prodotto, con presto i promettenti kit di sviluppo Vuzix e una versione consumer da seguire. È molto bello.

Dietro queste nuove funzionalità - e quelle che avremo bisogno di guardare al futuro - c'erano display notevolmente migliorati e il lavoro sta procedendo su nuovi LCD e Micro OLED (diodi organici a emissione di luce), nonché su display a campo luminoso.

Nel regno Micro OLED, ho visto un numero di cuffie che utilizzavano il microdisplay OLED Lightning 720p di Kopin, che ha una dimensione diagonale di 0, 49 pollici e una luminosità di oltre 1000 ni. Alcuni degli auricolari più interessanti di oggi sembrano usarlo.

Uno che ho trovato particolarmente interessante utilizza un microdisplay e integra i sistemi di imaging termico di Flir per creare un auricolare che funziona come una maschera per i vigili del fuoco che possono avvisarli di punti caldi in un edificio in fiamme.

Guardando più avanti, Kopin ha mostrato il suo Lightning 2K AMOLED, un display da 0, 99 pollici (18 mm per lato) con 2048 per 2048 pixel, che uscirà entro la fine dell'anno. La società ha creato display per cuffie per molti anni e ora sta realizzando micro OLED come parte di una joint venture con il produttore di display BOE, con l'obiettivo di creare una migliore "realtà assistiva".

In futuro, sarò molto interessato alle applicazioni AR in particolare, ma per quest'anno, penso che sia ancora in gran parte un'applicazione di nicchia, più adatta per mercati verticali con esigenze specifiche.

Tuttavia, in un altro cenno verso i film di fantascienza, gli ologrammi sembrano fare molti progressi. Sono stato particolarmente colpito da Hypervsn di Kino-mo, una società britannica che utilizza LED per proiettare ologrammi 3D che sembrano fluttuare nell'aria. Questa tecnologia viene utilizzata principalmente nel marketing, per la creazione di display accattivanti. Certamente ha catturato il mio.

Dispositivi di fantascienza che sono (quasi) reali