Casa opinioni Perché ai deve rivelare che è ai

Perché ai deve rivelare che è ai

Sommario:

Video: L'italiano ( l asciatemi cantare ) Toto Cotugno - lyrics (Ottobre 2024)

Video: L'italiano ( l asciatemi cantare ) Toto Cotugno - lyrics (Ottobre 2024)
Anonim

Google ha recentemente ripetuto Duplex per rivelare esplicitamente agli host dei ristoranti e al personale del salone che stanno parlando con l'Assistente Google e sono in fase di registrazione.

Google ha omesso questo piccolo ma importante dettaglio quando ha presentato Duplex per la prima volta alla conferenza degli sviluppatori di I / O a maggio. Ne derivò un contraccolpo mediatico e i critici rinnovarono vecchie paure sulle implicazioni dello scatenamento di agenti di intelligenza artificiale che possono impersonare il comportamento degli umani in modi indistinguibili.

Modificando Duplex, Google mette fine a queste critiche. Ma perché è così importante che le aziende siano trasparenti sull'identità dei loro agenti di intelligenza artificiale?

Gli Assistenti AI possono servire scopi malvagi?

"C'è una crescente aspettativa che quando stai messaggiando un business, potresti interagire con un chatbot basato sull'intelligenza artificiale. Ma quando senti effettivamente un parlare umano, generalmente ti aspetti che sia una persona reale", afferma Joshua March, CEO di Coversocial.

March afferma che siamo all'inizio delle persone che hanno interazioni significative con l'IA su base regolare e i progressi nel campo hanno creato il timore che gli hacker potessero sfruttare gli agenti dell'IA per scopi dannosi.

"Nel migliore dei casi, i robot di intelligenza artificiale con intenzioni dannose potrebbero offendere le persone", afferma Marcio Avillez, SVP di Networks di Cujo AI. Ma Marcio aggiunge che potremmo dover affrontare minacce più terribili. Ad esempio, l'intelligenza artificiale può apprendere specifici schemi linguistici, rendendo più semplice l'adattamento della tecnologia per manipolare le persone, impersonare le vittime e attacchi di vishing (voice phishing) e attività simili.

Molti esperti concordano sul fatto che la minaccia sia reale. In una colonna per il CIO, Steven Brykman ha illustrato i diversi modi in cui una tecnologia come Duplex può essere sfruttata: "Almeno con gli umani che chiamano umani, c'è ancora un fattore limitante: un essere umano può effettuare così tante chiamate all'ora, al giorno. Gli umani devono essere pagati, fare delle pause e così via. Ma un chatbot di intelligenza artificiale potrebbe letteralmente effettuare un numero illimitato di chiamate a un numero illimitato di persone in una varietà illimitata di modi!"

In questa fase, la maggior parte di ciò che ascoltiamo è la speculazione; non conosciamo ancora la portata e la gravità delle minacce che possono sorgere con l'avvento degli assistenti vocali. Ma molti dei potenziali attacchi che coinvolgono assistenti vocali possono essere disinnescati se la società che fornisce la tecnologia comunica esplicitamente agli utenti quando interagiscono con un agente di intelligenza artificiale.

Preoccupazioni relative alla privacy

Un altro problema relativo all'uso di tecnologie come Duplex è il potenziale rischio per la privacy. I sistemi basati sull'intelligenza artificiale hanno bisogno dei dati dell'utente per addestrare e migliorare i loro algoritmi e Duplex non fa eccezione. Il modo in cui memorizzerà, proteggerà e utilizzerà tali dati è molto importante.

Stanno emergendo nuove normative che impongono alle aziende di ottenere il consenso esplicito degli utenti quando desiderano raccogliere le loro informazioni, ma sono state principalmente progettate per coprire le tecnologie in cui gli utenti avviano intenzionalmente interazioni. Questo ha senso per gli assistenti AI come Siri e Alexa, che sono attivati ​​dall'utente. Ma non è chiaro come le nuove regole si applicherebbero agli assistenti AI che raggiungono gli utenti senza essere attivati.

Nel suo articolo, Brykman sottolinea la necessità di stabilire garanzie normative, come le leggi che impongono alle aziende di dichiarare la presenza di un agente di intelligenza artificiale o una legge che quando chiedi a un chatbot se si tratta di un chatbot, è necessario dire "Sì, Sono un chatbot. " Tali misure darebbero all'interlocutore umano la possibilità di disimpegnarsi o almeno decidere se vogliono interagire con un sistema di intelligenza artificiale che registra la loro voce.

Anche con tali leggi, i problemi di privacy non scompariranno. "Il rischio più grande che prevedo nell'attuale incarnazione della tecnologia è che fornirà a Google ancora più dati sulla nostra vita privata che non aveva già. Fino a questo punto, sapevano solo delle nostre comunicazioni online; ora acquisiranno una visione reale di le nostre conversazioni nel mondo reale ", afferma Vian Chinner, fondatore e CEO di Xineoh.

I recenti scandali sulla privacy che coinvolgono grandi aziende tecnologiche, in cui hanno utilizzato i dati degli utenti in modi discutibili per i propri guadagni, hanno creato un senso di sfiducia nel dare loro più finestre nella nostra vita. "Le persone in generale ritengono che le grandi aziende della Silicon Valley le vedano come un inventario anziché come clienti e hanno un grande grado di sfiducia nei confronti di quasi tutto ciò che fanno, indipendentemente da quanto rivoluzionario e che cambierà la vita", afferma Chinner.

Fallimenti funzionali

Nonostante abbia una voce e un tono naturali e usi suoni simili all'uomo come "mmhm" e "ummm", il duplex non è diverso dalle altre tecnologie AI contemporanee e soffre delle stesse limitazioni.

Sia come voce che come testo vengono utilizzati come interfaccia, gli agenti AI sono bravi a risolvere problemi specifici. Ecco perché li chiamiamo "intelligenza artificiale ristretta" (al contrario di "intelligenza artificiale generale", il tipo di intelligenza artificiale che può impegnarsi nella risoluzione generale dei problemi, come fa la mente umana). Mentre l'IA ristretta può essere eccezionalmente brava nell'esecuzione delle attività per cui è programmata, può fallire in modo spettacolare quando viene dato uno scenario che si discosta dal suo dominio problematico.

"Se il consumatore pensa di parlare con un essere umano, probabilmente chiederà qualcosa che è al di fuori della normale sceneggiatura dell'intelligenza artificiale e otterrà una risposta frustrante quando il bot non capisce", afferma March di Conversocial.

Al contrario, quando una persona sa che sta parlando con un'intelligenza artificiale che è stata addestrata per prenotare tavoli in un ristorante, cercherà di evitare l'uso di un linguaggio che confonderà l'IA e lo farà comportare in modi inaspettati, soprattutto se sta portando loro un cliente.

"I membri del personale che ricevono chiamate dal Duplex dovrebbero anche ricevere una chiara introduzione sul fatto che questa non è una persona reale. Ciò aiuterebbe la comunicazione tra il personale e l'IA ad essere più conservativa e chiara", afferma Avillez.

Per questo motivo, fino a quando (e se) svilupperemo un'intelligenza artificiale in grado di funzionare alla pari con l'intelligenza umana, è nell'interesse delle aziende stesse essere trasparenti sul loro uso dell'IA.

Alla fine della giornata, parte della paura degli assistenti vocali come Duplex è causata dal fatto che sono nuovi e ci stiamo ancora abituando a incontrarli in nuove impostazioni e casi d'uso. "Almeno alcune persone sembrano molto a disagio con l'idea di parlare con un robot senza saperlo, quindi per il momento dovrebbe probabilmente essere rivelato alle controparti nella conversazione", afferma Chinner.

  • L'IA è (anche) una forza per il bene L'IA è (anche) una forza per il bene
  • Quando l'IA sfuma il confine tra realtà e finzione Quando l'IA sfuma il confine tra realtà e finzione
  • L'intelligenza artificiale ha un problema di pregiudizio, ed è il nostro errore L'intelligenza artificiale ha un problema di pregiudizio, ed è il nostro errore

Ma a lungo termine, ci abitueremo ad interagire con agenti di intelligenza artificiale che sono più intelligenti e più capaci di svolgere compiti che in precedenza erano considerati il ​​dominio esclusivo degli operatori umani.

"Alla prossima generazione non importerà se stanno parlando con un'intelligenza artificiale o un essere umano quando contattano un'azienda. Vorranno solo ottenere la risposta in modo rapido e semplice e saranno cresciuti parlando con Alexa. Aspettando tenere a parlare con un essere umano sarà molto più frustrante della semplice interazione con un robot ", afferma Conversocial's March.

Perché ai deve rivelare che è ai