Video: La seduta di N3well e l'intelligenza artificiale (Novembre 2024)
Chiedi qualcosa al tuo telefono, Eco o computer. Oppure chiama la tua banca e parla con il menu automatizzato. Aspetterò.
Qualunque cosa tu abbia chiesto, una versione sintetizzata di una donna probabilmente ti ha risposto, educato e deferente, piacevole, indipendentemente dal tono o dall'argomento.
Questo perché Siri, Alexa, Cortana e i loro antenati svolgono questo lavoro da anni, pronti a rispondere a domande serie e a deviare quelle ridicole. Anche se mancano di corpi, incarnano ciò che pensiamo quando immaginiamo un assistente personale: una donna competente, efficiente e affidabile. Ti porta alle riunioni in tempo con promemoria e indicazioni, fornisce materiale di lettura per il tragitto giornaliero e fornisce informazioni pertinenti sulla strada, come il tempo e il traffico. Tuttavia, non è responsabile.Se eseguiti da esseri umani, questi compiti hanno conseguenze sociologiche e psicologiche. Quindi si potrebbe pensare che l'uso di un'intelligenza artificiale senza emozioni come assistente personale cancellerebbe le preoccupazioni sugli stereotipi di genere obsoleti. Ma le aziende hanno ripetutamente lanciato questi prodotti con voci femminili e, in alcuni casi, nomi. Ma quando possiamo vedere solo una donna, anche artificiale, in quella posizione, imponiamo una cultura dannosa.
Tuttavia, i consumatori si aspettano una donna amichevole e utile in questo scenario e questo è ciò che le aziende danno loro.
"Abbiamo testato molte voci con il nostro programma beta interno e i clienti prima del lancio e questa voce è stata testata al meglio", ha detto un portavoce di Amazon a PCMag.
Un portavoce di Microsoft ha affermato che Cortana può tecnicamente essere senza genere, ma la società si è immersa nella ricerca di genere nella scelta di una voce e ha valutato i vantaggi di una voce maschile e femminile. "Tuttavia, per i nostri obiettivi - costruire un assistente utile, solidale e affidabile - una voce femminile è stata la scelta più forte", secondo Redmond.
Siri di Apple e Google Assistant attualmente offrono l'opzione per passare a una voce maschile; Siri dal 2013 e Google da ottobre. Ma Alexa e Cortana non hanno controparti maschili.
Considera che IBM Watson, un'intelligenza artificiale di ordine superiore, parla con una voce maschile mentre lavora a fianco dei medici per il trattamento del cancro e vince facilmente Jeopardy . Quando scelse la voce di Watson per Jeopardy , IBM ne scelse una che era sicura di sé e le fece usare brevi frasi definitive. Entrambi sono tipici del discorso maschile - e le persone preferiscono sentire una voce maschile da un leader, secondo la ricerca - quindi Watson ha ottenuto una voce maschile.
Le donne, nel frattempo, usano più pronomi e parole provvisorie rispetto agli uomini, secondo lo psicologo James W. Pennebaker. L'uso del pronome, in particolare della parola "I", è indicativo di uno stato sociale inferiore. Gli assistenti di intelligenza artificiale sono molto inclini a usare "I", in particolare nell'assunzione di responsabilità per errori. Fai una domanda a Siri che non può elaborare e dice "Non sono sicuro di capire".
È fondamentale sfidare ruoli di genere stereotipati nei nostri assistenti personali. Le nostre interazioni con l'IA insegnano e addestrano, ma siamo anche plasmati da queste esperienze. Ecco perché i genitori sono preoccupati di crescere involontariamente bambini maleducati quando Alexa non richiede un "per favore" o un "grazie" per svolgere un compito.
Mentre il nostro rapporto con la tecnologia entra in una nuova fase dell'intimità, è preoccupante pensare a cosa accadrà quando le esperienze sessuali primarie di alcune persone saranno con un robot sessualmente acquiescente. Molestare sessualmente Siri per un video di YouTube potrebbe essere divertente per alcuni, ma è inquietante sentire quanto sia simile quella lingua a ciò che le donne sentono dai molestatori di strada. C'è la stessa aspettativa sociale che entrambi la accettano.
Gli umani mirano a far corrispondere lo stile linguistico nelle loro interazioni sociali, nel senso che cercano di abbinare i modelli linguistici dell'essere umano - e ora dell'IA - con cui stanno parlando. Ma quando l'IA entra nel nostro regno fisico, ci sono serie conseguenze personali e sociali nel trattarla in modo degradante. Le aziende dietro l'intelligenza artificiale stanno incassando pregiudizi e questo non è il modo per un'utopia, una tecnologia o altro.