Sommario:
- L'intelligenza artificiale non è pronta per problemi di ampia portata
- Un obiettivo irraggiungibile?
- È un altro incombente inverno AI?
Video: Trasformazione digitale: le aziende italiane hanno finalmente capito? (Novembre 2024)
"Andrew Ingram" è un assistente digitale che esegue la scansione delle e-mail, fornisce idee sulla pianificazione delle riunioni e degli appuntamenti discussi con i colleghi, imposta le attività e invia gli inviti alle parti interessate con pochissima assistenza. Utilizza le capacità avanzate di intelligenza artificiale di X.ai, una novità
Mentre l'idea che le tue e-mail vengano scansionate da persone reali potrebbe sembrare inquietante, è diventata una pratica comune tra molte aziende che forniscono servizi di intelligenza artificiale ai propri clienti. Un recente articolo del Wall Street Journal ha rivelato diverse aziende che consentono ai loro dipendenti di accedere e leggere le e-mail dei clienti per creare nuove funzionalità e addestrare la loro intelligenza artificiale su casi che non ha mai visto prima.
Chiamata tecnica del "Mago di Oz" o pseudo-AI, la pratica di usare silenziosamente gli umani per rimediare alle carenze degli algoritmi di intelligenza artificiale fa luce su alcune delle sfide più profonde che l'industria dell'IA affronta.
L'intelligenza artificiale non è pronta per problemi di ampia portata
Dietro la maggior parte delle innovazioni AI negli ultimi anni ci sono algoritmi di deep learning e reti neurali. Le reti neuronali profonde sono molto efficienti nella classificazione delle informazioni. In molti casi, come il riconoscimento vocale e del volto o l'identificazione del cancro nelle scansioni MRI e CT, possono superare gli umani.
Ma ciò non significa che l'apprendimento profondo e le reti neurali possano svolgere qualsiasi compito che gli umani possano fare.
"Il deep learning ci sta permettendo di risolvere il problema della percezione. Questo è molto importante perché la percezione ha un'intelligenza artificiale limitata sin dalla sua nascita oltre 60 anni fa", afferma Jonathan Mugan, cofondatore e CEO di DeepGrammar. "Risolvere il problema della percezione ha finalmente reso l'IA utile per cose come il riconoscimento vocale e la robotica".
Tuttavia, osserva Mugan, la percezione non è l'unico problema. Lotte di apprendimento profondo in cui sono coinvolti il ragionamento e la comprensione di buon senso.
"L'apprendimento profondo non ci aiuta a risolvere questo problema", afferma. "Abbiamo compiuto alcuni progressi nella PNL (elaborazione del linguaggio naturale) trattando il linguaggio come un problema di percezione; cioè, convertendo parole e frasi in vettori. Questo ci ha permesso di rappresentare meglio il testo per la classificazione e la traduzione automatica (quando ci sono molti dati), ma non aiuta nel ragionamento di buon senso. Ecco perché i chatbot hanno ampiamente fallito."
Uno dei problemi principali che devono affrontare tutte le applicazioni di deep learning è quello di raccogliere i dati giusti per addestrare i loro modelli di intelligenza artificiale. Lo sforzo e i dati che vanno alla formazione di una rete neurale per eseguire un'attività dipendono da quanto è ampio lo spazio problematico e dal livello di precisione richiesto.
Ad esempio, un'applicazione di classificazione delle immagini come l'app Not Hotdog della Silicon Valley di HBO svolge un compito molto ristretto e specifico: ti dice se la videocamera del tuo smartphone sta mostrando un hot dog oppure no. Con abbastanza immagini hotdog, l'intelligenza artificiale dell'app può svolgere la sua funzione molto importante con un alto livello di precisione. E anche se ogni tanto commette un errore, non farà male a nessuno.
Ma altre applicazioni AI, come quella che X.ai sta costruendo, stanno affrontando problemi molto più ampi, il che significa che richiedono molti esempi di qualità. Inoltre, la loro tolleranza agli errori è molto più bassa. C'è una netta differenza tra scambiare un cetriolo per un hot dog e programmare un importante incontro di lavoro in un momento sbagliato.
Sfortunatamente, i dati di qualità non sono un bene che tutte le aziende possiedono.
"La regola empirica è che più un problema generale che un'intelligenza artificiale sta cercando di affrontare, più possono verificarsi casi limite o comportamenti insoliti. Ciò significa inevitabilmente che occorrono molti più esempi di addestramento per coprire tutto", afferma il Dr. Steve Marsh, CTO presso Geospock. "Le start-up in genere non hanno accesso a enormi quantità di dati di allenamento, quindi i modelli che possono costruire in modo fattibile saranno di nicchia e fragili, che di solito non soddisfano le loro aspettative."
Una tale ricchezza di informazioni è in possesso solo di grandi aziende come Facebook e Google, che da anni raccolgono i dati di miliardi di utenti. Le aziende più piccole devono pagare ingenti somme per ottenere o creare dati di formazione e ciò ritarda il lancio delle loro applicazioni. L'alternativa è lanciare comunque e iniziare ad addestrare la loro intelligenza artificiale al volo, usando trainer umani e dati dei clienti in tempo reale e sperando che alla fine l'IA diventerà meno dipendente dagli umani.
Ad esempio, Edison Software, una società con sede in California che sviluppa app per la gestione delle e-mail, ha fatto leggere ai suoi dipendenti le e-mail dei propri clienti per sviluppare una funzione di "risposta intelligente" perché non disponevano di dati sufficienti per addestrare l'algoritmo, l'azienda CEO ha detto al Wall Street Journal. La creazione di risposte intelligenti è un compito ampio e impegnativo. Anche Google, che ha accesso alle e-mail di miliardi di utenti, fornisce risposte intelligenti per casi molto ristretti.
Ma usare gli esseri umani per addestrare l'IA con dati utente in diretta non si limita alle aziende più piccole.
Nel 2015, Facebook ha lanciato M, un chatbot di intelligenza artificiale in grado di comprendere e rispondere a diverse sfumature di conversazioni e svolgere molte attività. Facebook ha messo M a disposizione di un numero limitato di utenti in California e ha creato uno staff di operatori umani che avrebbe monitorato le prestazioni dell'IA e sarebbe intervenuto per correggerlo quando non fosse in grado di comprendere una richiesta dell'utente. Il piano originale prevedeva che gli operatori umani aiutassero l'insegnante a rispondere ai casi limite che non aveva mai visto prima. Nel tempo, M sarebbe in grado di operare senza l'aiuto degli umani.
Un obiettivo irraggiungibile?
Non è chiaro quanto tempo ci vorrà per Edison Software, X.ai e altre società che hanno lanciato sistemi umani nel ciclo per rendere la loro intelligenza artificiale completamente automatizzata. C'è anche il dubbio se le attuali tendenze dell'IA possano mai raggiungere il punto di impegnarsi in domini più ampi.
Nel 2018, Facebook ha chiuso M senza distribuirlo ufficialmente. La società non ha condiviso i dettagli, ma è chiaro che creare un chatbot in grado di avviare conversazioni estese è molto difficile. E rendere M disponibile a tutti i due miliardi di utenti di Facebook senza prima renderlo pienamente in grado di rispondere automaticamente a tutti i tipi di conversazioni avrebbe richiesto al gigante dei social media di assumere un enorme staff di umani per colmare le lacune di M.
Il Mugan di DeepGrammar ritiene che alla fine saremo in grado di creare un'intelligenza artificiale in grado di risolvere il ragionamento di buon senso, ciò che gli altri classificano come AI generale. Ma non accadrà presto. "Attualmente non ci sono metodi all'orizzonte che consentano a un computer di capire ciò che sa un bambino piccolo", afferma Mugan. "Senza questa comprensione di base, i computer non saranno in grado di svolgere molte attività nel 100% dei casi."
Per metterlo in prospettiva, gli esperti di OpenAI hanno recentemente sviluppato Dactyl, una mano robotica in grado di gestire oggetti. Questo è un compito che ogni bambino umano impara a svolgere inconsciamente in tenera età. Ma Dactyl ha impiegato 6.144 CPU e 8 GPU e circa cento anni di esperienza per sviluppare le stesse competenze. Sebbene sia un risultato affascinante, evidenzia anche le forti differenze tra l'intelligenza artificiale stretta e il modo in cui funziona il cervello umano.
"Siamo molto lontani dall'avere un'intelligenza generale artificiale e, molto probabilmente, l'AGI sarà la combinazione e il coordinamento di molti diversi tipi di intelligenza artificiale stretta o specifica per l'applicazione", afferma Marsh. "Penso che ci sia una tendenza a riproporre le capacità dell'IA al momento, ma vedo anche che c'è un enorme valore nel fare i primi passi iniziali e nell'implementare i tradizionali modelli di Machine Learning."
È un altro incombente inverno AI?
Nel 1984, l'American Association of Artificial Intelligence (in seguito ribattezzata Association for the Advancement of Artificial Intelligence) avvertì la comunità imprenditoriale che l'hype e l'entusiasmo che circondavano l'IA alla fine avrebbero portato alla delusione. Poco dopo, gli investimenti e l'interesse per l'IA sono crollati, portando a un'era meglio conosciuta come "l'inverno dell'IA".
Dall'inizio del 2010, l'interesse e gli investimenti nel settore sono nuovamente aumentati. Alcuni esperti temono che se le applicazioni dell'IA non funzionano e non soddisfano le aspettative, ne conseguirà un altro inverno dell'IA. Ma gli esperti con cui abbiamo parlato credono che l'IA sia già diventata troppo integrata nelle nostre vite per tornare sui suoi passi.
"Non penso che siamo in pericolo di un inverno AI come quelli precedenti perché l'IA ora sta offrendo un valore reale, non solo un valore ipotetico", dice Mugan. "Tuttavia, se continuiamo a dire al grande pubblico che i computer sono intelligenti come gli umani, rischiamo un contraccolpo. Non torneremo a non usare il deep learning per la percezione, ma il termine 'AI' potrebbe essere impreciso, e noi dovrebbe chiamarlo qualcos'altro ".
Quello che è certo è che almeno un'era di disillusione ci sta davanti. Stiamo per apprendere fino a che punto possiamo fidarci delle attuali miscele di AI in diversi campi.
"Quello che mi aspetto di vedere è che alcune aziende sono piacevolmente sorprese dalla rapidità con cui possono fornire un'intelligenza artificiale per un servizio precedentemente manuale e costoso e che altre aziende troveranno che ci vuole più tempo di quanto si aspettassero di raccogliere dati sufficienti per diventare economicamente sostenibile ", afferma James Bergstra, cofondatore e responsabile della ricerca presso Kindred.ai. "Se ci sono troppi di questi ultimi e non abbastanza dei primi, potrebbe innescare un altro inverno di intelligenza artificiale tra gli investitori."
- L'intelligenza artificiale ha un problema di pregiudizio, ed è il nostro errore L'intelligenza artificiale ha un problema di pregiudizio, ed è il nostro errore
- Perché insegnare l'IA a giocare ai giochi è importante Perché insegnare all'intelligenza artificiale a giocare ai giochi è importante
- L'intelligenza artificiale offre un potenziale enorme, ma non accadrà durante la notte L'intelligenza artificiale offre un potenziale enorme, ma non accadrà durante la notte
Geospock's Marsh prevede che, sebbene i finanziamenti non diminuiranno, ci saranno alcuni adeguamenti delle sue dinamiche. Poiché gli investitori si rendono conto che la vera competenza è rara e solo quelli con accesso ai dati per la formazione dei modelli saranno differenziali nel settore, ci sarà un grande consolidamento nel mercato e molte meno startup otterranno finanziamenti.
"Per molte startup AI senza un'applicazione di mercato di nicchia o enormi quantità di dati: l'inverno sta arrivando", conclude Marsh.