Casa Caratteristiche Come il puzzle di Google sta cercando di disintossicare Internet

Come il puzzle di Google sta cercando di disintossicare Internet

Sommario:

Video: No internet Game Google T-Rex Runner From Cardboard (Novembre 2024)

Video: No internet Game Google T-Rex Runner From Cardboard (Novembre 2024)
Anonim

Internet può sembrare un luogo tossico. I troll scendono sulle sezioni dei commenti e sui thread dei social media per scagliare discorsi di odio e molestie, trasformando discussioni potenzialmente illuminanti in attacchi ad hominem e pile di gruppi. Esprimere un'opinione online spesso non sembra valere il vetriolo risultante.

Enormi piattaforme social, tra cui Facebook, Twitter e YouTube, ammettono di non poter sorvegliare adeguatamente questi problemi. Sono in una corsa agli armamenti con robot, troll e ogni altro indesiderabile che sfugge ai filtri dei contenuti. Gli esseri umani non sono fisicamente in grado di leggere ogni singolo commento sul web; quelli che provano spesso se ne pentono.

I giganti della tecnologia hanno sperimentato varie combinazioni di moderazione umana, algoritmi AI e filtri per guadare attraverso il diluvio di contenuti che scorre attraverso i loro feed ogni giorno. Jigsaw sta cercando di trovare una via di mezzo. La consociata Alphabet e l'incubatrice tecnologica, precedentemente nota come Google Ideas, stanno iniziando a dimostrare che l'apprendimento automatico (ML) trasformato in strumenti per moderatori umani può cambiare il modo in cui affrontiamo il problema della tossicità di Internet.

Perspective è un'API sviluppata da Jigsaw e dal team di Counter Abuse Technology di Google. Utilizza ML per individuare abusi e molestie online e ottiene commenti in base all'impatto percepito che potrebbero avere su una conversazione nel tentativo di semplificare la vita dei moderatori.

Prospettiva tra le partite urlanti

La tecnologia open source è stata annunciata per la prima volta nel 2017, anche se lo sviluppo è iniziato alcuni anni prima. Alcuni dei primi siti a sperimentare con Perspective sono state pubblicazioni di notizie come il New York Times e siti come Wikipedia. Ma di recente, Perspective ha trovato casa su siti come Reddit e la piattaforma di commenti Disqus (che viene utilizzata su PCMag.com.)

CJ Adams, product manager di Perspective, ha affermato che il progetto ha voluto esaminare in che modo le voci delle persone vengono messe a tacere online. Jigsaw voleva esplorare come l'abuso mirato o un'atmosfera generale di molestie possano creare un effetto agghiacciante, scoraggiando le persone al punto in cui ritengono che non valga la pena il tempo o l'energia per aggiungere la loro voce a una discussione. Quante volte hai visto un tweet, un post o un commento e hai scelto di non rispondere perché combattere i troll e diventare Mad Online non vale la pena?

"È molto facile rovinare una conversazione online", ha detto Adams. "È facile entrare, ma una persona che è davvero cattiva o tossica potrebbe scacciare altre voci. Forse 100 persone leggono un articolo o iniziano un dibattito, e spesso finisci con le voci più rumorose nella stanza che sono le uniche rimaste, in una rete che è ottimizzata per i Mi piace e le condivisioni. Quindi in un certo senso metti a tacere tutte queste voci. Quindi ciò che sta definendo il dibattito è solo la voce più rumorosa nella stanza, la partita urlante."

    Jigsaw e Google

    È stato un anno difficile per la consociata di Jigsaw, Google, che ha affrontato problemi di sicurezza dei dati, respingimenti dei dipendenti sul suo coinvolgimento in progetti per il Pentagono e in Cina e rivelazioni sulla sua gestione delle molestie sessuali. Per non parlare di una controversa audizione del Congresso in cui il CEO Sundar Pichai è stato grigliato dai legislatori.

    A Jigsaw, l'incubatrice altruistica di Alphabet, le cose sono state un po 'meno drammatiche. Il team ha trascorso il tempo a esaminare forme più tecniche di censura, come l'avvelenamento da DNS con la sua app Intra e gli attacchi DDoS con Project Shield. Con Prospettiva, l'obiettivo è più astratto. Invece di usare l'apprendimento automatico per determinare ciò che è o non è contro un determinato insieme di regole, la sfida di Perspective è intensamente soggettiva: classificare l'impatto emotivo del linguaggio.

    Per fare ciò, è necessario l'elaborazione del linguaggio naturale (NLP), che suddivide una frase per individuare i modelli. Il team di Perspective sta affrontando problemi come il pregiudizio di conferma, il pensiero di gruppo e il comportamento molesto in un ambiente in cui la tecnologia ha amplificato la loro portata e li ha resi più difficili da risolvere.

    L'IA è "sbagliato e talvolta stupido"

    Migliorare le conversazioni online con l'apprendimento automatico non è un compito semplice. È ancora un campo di ricerca emergente. Gli algoritmi possono essere distorti, i sistemi di apprendimento automatico richiedono un perfezionamento senza fine e i problemi più difficili e importanti sono ancora in gran parte inesplorati.

    Il gruppo di ricerca AI di conversazione, che ha creato Perspective, è iniziato incontrando giornali, editori e altri siti che ospitano conversazioni. Alcuni dei primi siti a sperimentare la tecnologia furono il New York Times , Wikipedia, The Guardian e The Economist .

    Nel 2017, il team ha aperto la demo iniziale di Perspective tramite un sito Web pubblico nell'ambito di un test alfa, consentendo alle persone di digitare milioni di commenti vili e offensivi sul sito. È stato un po 'come il famigerato esperimento fallito di Tay chatbot di Microsoft, tranne che invece di indurre il bot a rispondere con i tweet razzisti, Jigsaw ha usato la virulenza in crowdsourcing come dati di addestramento per alimentare i suoi modelli, aiutando a identificare e classificare diversi tipi di abusi online.

    L'esecuzione del test pubblico iniziale non è andata a buon fine. "Trolls Across America" ​​di Wired, che ha abbattuto la tossicità nei commenti in tutto il paese sulla base del punteggio Prospettiva, ha mostrato come l'algoritmo abbia inavvertitamente discriminato i gruppi per razza, identità di genere o orientamento sessuale.

    Adams era sincero sul fatto che i test iniziali di Perspective hanno rivelato importanti punti ciechi e pregiudizi algoritmici. Come lo strumento di reclutamento scartato di Amazon, che si è formato su decenni di dati di lavoro imperfetti e ha sviluppato una propensione intrinseca nei confronti delle candidate donne, i primi modelli di Prospettiva avevano evidenti difetti a causa dei dati su cui erano stati formati.

    "Nell'esempio di gruppi frequentemente mirati, se hai esaminato la distribuzione tra i commenti nel set di dati di formazione, c'erano un numero sparitamente ridotto di commenti che includevano la parola" gay "o" femminista "e lo utilizzavano in modo positivo modo ", ha spiegato Adams. "I commenti offensivi usano le parole come insulti. Quindi l'ML, osservando i modelli, direbbe:" Ehi, la presenza di questa parola è abbastanza buona previsione del fatto che questo sentimento sia o meno tossico ".

    Ad esempio, l'algoritmo alfa potrebbe avere erroneamente etichettato dichiarazioni come "Sono un gay orgoglioso" o "Sono femminista e transgender" con punteggi di tossicità elevati. Ma il processo di formazione pubblicamente trasparente, sebbene doloroso, è stata una lezione inestimabile per Jigsaw sulle conseguenze di una propensione involontaria, ha affermato Adams.

    Durante l'addestramento di modelli di apprendimento automatico su qualcosa di così angosciante e personale come l'abuso e le molestie online, l'esistenza di un pregiudizio algoritmico sottolinea anche perché l'IA da sola non è la soluzione. Società sociali come Facebook e YouTube hanno entrambe propagandato le funzionalità di moderazione dei contenuti di intelligenza artificiale delle loro piattaforme solo per tornare indietro nel mezzo dello scandalo e correggere la rotta assumendo migliaia di moderatori umani.

    Il tack di Jigsaw è un ibrido dei due. La prospettiva non è algoritmi AI che prendono decisioni nel vuoto; l'API è integrata nelle interfacce di gestione della comunità e di moderazione dei contenuti per fungere da strumento di assistenza per i moderatori umani. Gli ingegneri prospettici descrivono la moderazione del discorso dell'odio con e senza ML usando un'analogia del pagliaio: l'IA aiuta automatizzando il processo di smistamento, abbattendo vasti covoni di fieno pur dando agli umani l'ultima parola sul fatto che un commento sia considerato offensivo o molesto.

    "È questa nuova capacità di ML", ha detto Adams. "Le persone parlano di quanto sia intelligente l'intelligenza artificiale, ma spesso non parlano di tutti i modi in cui è sbagliato e stupido a volte. Fin dall'inizio, sapevamo che questo avrebbe fatto molti errori, e quindi abbiamo detto, 'Questo lo strumento è utile per la moderazione umana assistita dalla macchina, ma non è pronto per prendere decisioni automatiche ". Ma è possibile che l'ago in un pagliaio trovi il problema di trovare questo discorso tossico e portarlo a una manciata di fieno."

    Che cos'è un punteggio di tossicità?

    L'aspetto più divisivo della modellistica di Perspective è mettere i numeri in una variabile soggettiva come la "tossicità". La prima cosa che Adams ha sottolineato è che i punteggi di Perspective sono un'indicazione di probabilità, non di gravità. Numeri più alti rappresentano una maggiore probabilità che i pattern nel testo assomiglino ai pattern nei commenti che le persone hanno etichettato come tossici.

    Per quanto riguarda ciò che in realtà significa "tossico", il team di Perspective lo definisce in generale come "un commento scortese, irrispettoso o irragionevole che probabilmente ti farà lasciare una discussione". Ma come si manifesta può essere sottile. Nel 2018, Jigsaw ha collaborato con il Rhodes Artificial Intelligence Lab (RAIL) per sviluppare modelli ML in grado di raccogliere forme più ambigue di discorsi minacciosi o odiosi, come un commento sprezzante, condiscendente o sarcastico che non è apertamente ostile.

    Fino a questo punto, la maggior parte dei modelli di Perspective è stata addestrata chiedendo alle persone di valutare i commenti su Internet su una scala da "molto tossico" a "molto sano". Gli sviluppatori possono quindi calibrare il modello per contrassegnare i commenti al di sopra di una determinata soglia, da 0, 0 a 1, 0. Un punteggio superiore a 0, 9 indica un'alta probabilità di tossicità e un punteggio di 0, 5 o inferiore indica un grado di certezza algoritmica molto più basso. Perspective utilizza anche ciò che viene chiamato normalizzazione dei punteggi, che fornisce agli sviluppatori una base di riferimento coerente da cui interpretare i punteggi. Adams ha spiegato che, a seconda del forum o del sito Web, gli sviluppatori possono combinare e abbinare modelli. Quindi, quando una comunità non si preoccupa della volgarità, quell'attributo può essere appesantito.

    Adams mi ha mostrato un'interfaccia di moderazione demo integrata con l'API Perspective. Nel pannello di amministrazione, accanto alle opzioni per ordinare i commenti in ordine superiore, più recente e così via, è presente una piccola icona a bandiera per ordinare in base alla tossicità. C'è anche un meccanismo di feedback integrato per il moderatore umano per dire a Perspective che ha segnato un commento in modo errato e migliorare il modello nel tempo.

    Ha fatto clic su un'interfaccia demo per moderare i commenti della pagina di Wikipedia Talk segnati da diversi modelli di Prospettiva e un grafico dell'istogramma che suddivide i commenti che potrebbero essere un attacco a un autore di pagine o un attacco a un altro commentatore.

    "Vogliamo costruire strumenti di moderazione assistita dalla macchina per contrassegnare le cose per un umano da rivedere, ma non vogliamo una definizione centrale o qualcuno che dica ciò che è buono e cattivo", ha detto Adams. "Quindi, se ordino per tossicità, vedi che i commenti cattivi arrivano in cima. Ma se ti preoccupi di più, diciamo, degli attacchi di identità o delle minacce rispetto a metriche come il giuramento, forse non useresti un modello di tossicità generale. Questi sono i ingredienti che puoi mescolare. Offriamo questi e gli sviluppatori li valutano ".

    L'esperimento RAIL sta adottando un approccio più granulare. Gli studenti laureati di Oxford stanno costruendo un set di dati di decine di migliaia di commenti dalla sezione commenti del quotidiano canadese Globe e Mail e dalle pagine di discussione di Wikipedia. Stanno chiedendo agli "annotatori" umani di rispondere a domande su ciascun commento relativo a cinque attributi secondari di "contenuto malsano": ostili o offensivi (troll), sprezzanti, condiscendenti o condiscendenti, generalizzazioni sarcastiche e ingiuste.

    Homing su questi attributi più sottili ha rivelato nuovi problemi complessi con distorsione involontaria verso gruppi specifici e falsi positivi con commenti sarcastici. Fa parte del dolore crescente dell'IA, alimentando modelli sempre più dati per aiutarlo a comprendere significati impliciti e indiretti dietro il linguaggio umano. Il team sta ancora esaminando e annotando migliaia di commenti e prevede di rilasciare il set di dati finale all'inizio di quest'anno.

    "Ciò su cui vogliamo lavorare è qualcosa in cui la community può ottenere un set di commenti, e quindi possiamo renderli un mix personalizzato di modelli di prospettiva da abbinare", ha affermato Adams.

    Reddit's Curious Testbed

    Reddit è un microcosmo di tutto ciò che è buono e terribile su Internet. C'è una comunità subreddit per ogni argomento e nicchia, bizzarro interesse a cui puoi pensare. Jigsaw non funziona con Reddit a livello aziendale, ma uno dei luoghi più intriganti in cui viene testata la moderazione AI di Perspective è su un subreddit chiamato r / changemyview.

    Sorprendentemente, ci sono angoli di Internet in cui si verificano ancora dibattiti e discussioni autentiche. Change My View, o CMV, non è come la maggior parte degli altri subreddit. L'idea è di pubblicare un'opinione che si accetta che sia difettosa o che sia aperta al cambiamento, quindi di ascoltare e comprendere altri punti di vista per vedere se possono cambiare idea su un problema. Le discussioni spaziano da argomenti banali come il giusto ordine di visione dei film di Star Wars a discussioni serie su temi come razzismo, politica, controllo delle armi e religione.

    Change My View è un banco di prova interessante per Perspective perché subreddit ha un proprio set dettagliato di regole per l'avvio e la moderazione delle conversazioni che incitano alla discussione e accendono il dibattito in base alla progettazione. Kal Turnbull, che va di u / Snorrrlax su Reddit, è il fondatore e uno dei moderatori di r / changemyview. Turnbull ha detto a PCMag che l'API Perspective si allinea particolarmente bene con la Regola 2 del sottomarino, che sostanzialmente proibisce discorsi volgari o ostili.

    "Sembra una regola semplice, ma c'è molta sfumatura", ha detto Turnbull, che ha sede in Scozia. “È difficile automatizzare questa regola senza essere intelligenti riguardo al linguaggio. Reddit ti dà questa cosa chiamata AutoModerator, dove puoi impostare filtri e parole chiave per la segnalazione. Ma ci sono così tanti falsi positivi, e può essere piuttosto difficile da catturare, perché qualcuno può dire una parolaccia senza insultare qualcuno, e può anche insultare qualcuno senza usare parolacce."

    Jigsaw ha contattato Turnbull a marzo 2018. La collaborazione è iniziata con la Regola 2, ma presto il team ha sviluppato modelli Perspective anche per altre regole. Non è una piena integrazione dell'API Perspective open-source ma piuttosto un bot Reddit che consente ai moderatori di contrassegnare i commenti segnati sopra una determinata soglia di tossicità.

    Negli ultimi sei anni, Turnbull e le altre mod hanno fatto tutto questo manualmente dalla coda dei report di AutoModerator (parole chiave contrassegnate) e dei report degli utenti. Jigsaw ha usato anni di note di violazione delle regole da parte dei moderatori, che hanno seguito tramite l'estensione del browser, e ha creato modelli di prospettiva basati su quei dati combinati con alcuni dei modelli di tossicità esistenti di Prospettiva. Per tutto il 2018, le mod di CMV hanno fornito feedback su questioni come l'eccesso di falsi positivi e Jigsaw ha modificato le soglie di punteggio continuando a modellare più regole del CMV.

    Sentenze complesse nel dibattito online

    (Il bot Perspective integrato nell'interfaccia del moderatore Reddit.)

    La prospettiva non è viva per tutta la moderazione delle regole del subreddit. Alcune delle regole più complicate o astratte sono ancora al di là dell'ambito di ciò che questo tipo di ML può comprendere.

    La Regola 4, ad esempio, regola il sistema di punti Delta del sub, mentre la Regola B impedisce agli utenti di giocare l'avvocato del diavolo o di usare un post per "soapboaxing". Una moderazione sfumata come quella richiede dati contestuali e una comprensione umana semplice, per discernere se qualcuno sta discutendo un punto per ragioni autentiche o semplicemente trollando.

    Per il prossimo futuro, avremo ancora bisogno di mod umani. Questi scenari di giudizio più complessi sono quelli in cui i moderatori del CMV stanno iniziando a vedere delle crepe nella modellazione AI e un'automazione più intelligente potrebbe determinare se tutto ciò è scalabile.

    "Penso che il motivo per cui questo sia così complicato sia perché è una combinazione del nostro giudizio sul loro post originale e le loro interazioni durante l'intera conversazione. Quindi non è solo un commento che attiva un modello", ha detto Turnbull. "Se un argomento va avanti e indietro, e alla fine è un commento che dice 'grazie' o un riconoscimento, lo lasciamo andare anche se una regola è stata infranta in precedenza nel thread. O una battuta spensierata che nel contesto potrebbe sembrare scortese: è una cosa carina e umana, ed è qualcosa che il bot non ha ancora ottenuto."

    Change My View è attualmente l'unico subreddit che utilizza attivamente modelli di Prospettiva ML per moderazione, sebbene Adams abbia affermato che il team ha ricevuto richieste di accesso da molti altri. Il set di regole specifico di CMV lo ha reso un caso di test ideale, ma i modelli di prospettiva sono malleabili; i singoli subreddit possono personalizzare l'algoritmo di punteggio in base alle linee guida della propria comunità.

    Il prossimo passo per Turnbull è togliere CMV da Reddit perché la comunità lo sta superando, ha detto. Negli ultimi sei mesi, la startup di recente formazione dei moderatori ha lavorato con Jigsaw su un sito dedicato con funzionalità più profonde rispetto all'interfaccia mod e ai robot di Reddit.

    Il progetto è ancora in fase di test alfa, ma Turnbull ha parlato di funzionalità come avvisi proattivi quando un utente sta scrivendo un commento che potrebbe infrangere una regola, reportistica incorporata per fornire ai moderatori più contesto e dati storici per prendere decisioni. Turnbull ha sottolineato che non ci sono piani per chiudere o migrare il subreddit, ma è entusiasta del nuovo esperimento.

  • Tutti i commenti si adattano alla stampa

    A seconda del giorno della settimana, il sito Web del New York Times riceve da 12.000 a oltre 18.000 commenti. Fino alla metà del 2017, le sezioni dei commenti del documento sono state moderate da uno staff di gestione della comunità a tempo pieno che ha letto ogni singolo commento e ha deciso se approvarlo o rifiutarlo.

    Bassey Etim, che fino a questo mese era l'editore della comunità per il Times , ha trascorso un decennio presso il desk della comunità ed era il suo editore dal 2014. Al culmine di un giorno feriale, il team potrebbe avere alcune persone che moderano i commenti su storie di opinione mentre altri affrontato notizie. Un foglio di calcolo si è diviso e ha tracciato diverse responsabilità, ma il team di circa una dozzina di persone è stato costantemente riassegnato o spostato a seconda delle notizie più importanti del momento. Hanno anche fornito notizie dai commenti ai giornalisti per potenziali foraggi per la storia.

    Alla fine, è diventato chiaro che questo era più di 12 umani in grado di gestire. Le sezioni dei commenti sulle storie dovrebbero chiudersi dopo aver raggiunto il numero massimo di commenti che il team potrebbe moderare.

    Il gruppo di sviluppo del pubblico del giornale aveva già sperimentato l'apprendimento automatico per approvazioni di base, ovvie, ma Etim ha affermato che non era particolarmente intelligente o personalizzabile. Il Times ha annunciato per la prima volta la sua collaborazione con Jigsaw a settembre 2016. Da allora, le sezioni dei suoi commenti si sono estese dall'apparizione su meno del 10 percento di tutte le storie a circa il 30 percento oggi e sull'arrampicata.

    Dal punto di vista di Jigsaw, l'incubatore ha visto l'opportunità di alimentare dati anonimi di Prospettiva da milioni di commenti al giorno, moderati da professionisti che potrebbero aiutare a perfezionare il processo. In cambio dei dati di allenamento ML anonimizzati, Jigsaw e Times hanno lavorato insieme per costruire una piattaforma chiamata Moderatore, che è stata lanciata a giugno 2017.

  • Inside Moderator, l'interfaccia di commento di NYT

    (Immagine gentilmente concessa da The New York Times )

    Moderator combina i modelli di Perspective con oltre 16 milioni di commenti Times moderati anonimi, risalenti al 2007.

    Ciò che il team della comunità vede effettivamente nell'interfaccia del moderatore è una dashboard con un diagramma istogramma interattivo che visualizza la suddivisione del commento al di sopra di una determinata soglia. Possono trascinare il dispositivo di scorrimento avanti e indietro, ad esempio, per approvare automaticamente tutti i commenti con solo un punteggio di riepilogo dallo 0 al 20 percento, che si basa su una combinazione del potenziale di un commento di oscenità, tossicità e probabilità di essere respinto. Di seguito sono riportati i pulsanti di moderazione rapida per approvare o rifiutare un commento, rimandarlo o contrassegnare il commento per continuare a migliorare la modellazione di Prospettiva.

    "Per ogni sezione del sito Web, abbiamo analizzato i commenti in arrivo e il modo in cui Prospettiva li avrebbe etichettati. Abbiamo usato sia i modelli pubblici Prospettiva che i nostri modelli unici per il New York Times ", ha affermato Etim. "Analizzerei i commenti di ogni sezione e proverei a trovare il punto di interruzione in cui ci sentiremmo a nostro agio nel dire 'OK, tutto al di sopra di questa probabilità usando questi specifici tag di tossicità, come l'oscenità per esempio, approveremo."

    L'apprendimento automatico sta approvando una percentuale relativamente piccola di commenti (circa il 25 percento circa, ha detto Etim) mentre il Times lavora per distribuire commenti su più storie e, in definitiva, persino per personalizzare il modo in cui i modelli filtrano e approvano i commenti per diverse sezioni del sito. I modelli approvano solo i commenti; il rifiuto è ancora gestito interamente dai moderatori umani.

    Quei tagli manuali ai commenti sono spariti. I commenti in genere chiudono su una storia 24 ore dopo la sua pubblicazione online o il giorno successivo alla sua pubblicazione su carta, ha affermato Etim.

    'Non ti stiamo sostituendo con le macchine'

    La fase successiva è la creazione di più funzionalità nel sistema per aiutare i moderatori a stabilire la priorità dei commenti da esaminare per primi. Sempre più l'automazione di quello che è sempre stato un processo manuale ha permesso ai moderatori di passare il tempo a lavorare in modo proattivo con i giornalisti per rispondere ai commenti. Ha creato un ciclo di feedback in cui i commenti portano a rapporti di follow-up e storie aggiuntive - possono salvare e riallocare le risorse per creare più giornalismo.

    "Moderatore e Prospettiva hanno reso il Times molto più sensibile alle preoccupazioni dei lettori, perché abbiamo le risorse per farlo, sia scrivendo storie da soli o lavorando con i giornalisti per capire le storie", ha detto Etim. "La cosa bella di questo progetto è che non abbiamo licenziato nessuno. Non ti stiamo sostituendo con le macchine. Stiamo semplicemente usando gli umani che abbiamo in modo più efficiente e per prendere decisioni davvero difficili."

    Il documento è aperto a collaborare con altre pubblicazioni per aiutare il resto del settore a implementare questo tipo di tecnologia. Può aiutare i notiziari locali con risorse limitate a mantenere sezioni di commenti senza un grande staff dedicato e ad utilizzare i commenti come fa il Times , per trovare potenziali contatti e alimentare il giornalismo di base.

    Etim paragonò la moderazione assistita dall'intelligenza artificiale a dare a un agricoltore un aratro meccanico contro una vanga. Puoi fare il lavoro molto meglio con un aratro.

    "Se la prospettiva può evolversi nel modo giusto, si spera possa creare almeno una serie di linee guida che sono ripetibili per i piccoli punti vendita", ha detto. "È un gioco lungo, ma abbiamo già creato molte basi per far parte dell'esperienza dei lettori. Quindi forse questi giornali locali possono avere di nuovo commenti e stabilire un po 'di fronte ai principali attori sociali".

    Urlando nell'abisso

    A questo punto, la maggior parte di noi ha visto persone attaccate o molestate sui social media per aver espresso un'opinione. Nessuno vuole che accada a loro, tranne i troll che prosperano in quel genere di cose. E abbiamo imparato che gridare a uno sconosciuto che non ascolterà mai una discussione razionale non è un uso prezioso del nostro tempo.

    La prospettiva sta cercando di ribaltare quella dinamica, ma CJ Adams ha affermato che l'obiettivo più ampio è quello di pubblicare dati, ricerche e nuovi modelli UX open-source per creare nuove strutture di conversazione: un compito scoraggiante. Rendere Internet un luogo salubre degno del tempo delle persone significa ridimensionare questi sistemi oltre le sezioni dei commenti delle notizie e i subreddit. In definitiva, gli strumenti di intelligenza artificiale devono essere in grado di gestire le app e le reti sociali gigantesche che dominano le nostre interazioni digitali quotidiane.

    Mettendo da parte ciò che Facebook, Twitter e altri giganti sociali stanno facendo internamente, il modo più diretto per raggiungere questo obiettivo è spingere la tecnologia dai moderatori agli utenti stessi. Adams indicò il Coral Project per avere un'idea di come sarebbe potuto apparire.

    Il Coral Project è stato inizialmente fondato come una collaborazione tra la Mozilla Foundation, il New York Times e il Washington Post. Coral sta costruendo strumenti open source come la sua piattaforma Talk per incoraggiare la discussione online e offrire ai siti di notizie un'alternativa alla chiusura delle sezioni dei commenti. Talk attualmente supporta piattaforme per quasi 50 editori online, tra cui Post , New York Magazine, The Wall Street Journal e The Intercept.

    All'inizio di questo mese, Vox Media ha acquisito il Coral Project dalla Mozilla Foundation; prevede di "integrarlo profondamente" in Chorus, la sua piattaforma di gestione dei contenuti e di narrazione.

    Perspective ha un plugin per il Coral Project che utilizza la stessa tecnologia di base - punteggio di tossicità e soglie basate su ML - per fornire agli utenti suggerimenti proattivi mentre scrivono, ha detto Adams. Pertanto, quando un utente sta scrivendo un commento contenente frasi contrassegnate come abuso o molestia, potrebbe essere visualizzata una notifica per l'utente che dice "Prima di pubblicare questo, assicurati di ricordare le nostre linee guida della community" o "La lingua in questo commento potrebbe violare le nostre linee guida della community. Il nostro team di moderazione lo esaminerà a breve."

    "Quella piccola spinta può aiutare le persone a pensarci un secondo, ma non blocca nessuno", ha detto Adams. "Non sta fermando la discussione."

    È un meccanismo integrato nelle chat di videogiochi e nelle piattaforme di streaming per arginare abusi e molestie. Anche gli utenti di Twitter potrebbero trarre chiaramente vantaggio da tale sistema.

    Parla dell'idea che lo scienziato ricercatore del MIT Andrew Lippmann ha sollevato nel Future Issue di PCMag: parlava di meccanismi integrati che avrebbero permesso alle persone di fermarsi e pensare prima di condividere qualcosa online, per aiutare a arginare la diffusione della disinformazione. Il concetto si applica anche alla discussione online. Abbiamo creato sistemi di comunicazione senza attrito in grado di amplificare esponenzialmente la portata di una dichiarazione in un istante, ma a volte un po 'di attrito può essere una buona cosa, ha detto Lippmann.

    La prospettiva non riguarda l'uso dell'IA come soluzione generale. È un modo per trasformare i modelli ML in strumenti per gli umani per aiutarli a curare le proprie esperienze. Ma un contrappunto è che se rendi ancora più facile per le persone sintonizzare il rumore online che non gli piace, Internet diventerà ancora più una camera di eco di quanto non sia già.

    Alla domanda se strumenti come Perspective possano in definitiva esacerbare ciò, Adams ha affermato che crede che esistano camere di eco online perché non ci sono meccanismi per ospitare una discussione in cui le persone possono essere significativamente in disaccordo.

    "Il percorso di minor resistenza è 'Queste persone stanno combattendo. Facciamo solo in modo che siano d'accordo con se stessi nei loro angoli. Lasciamo che le persone si sili da sole", ha detto. "Lasci che le persone gridino a tutti gli altri fuori dalla stanza o chiudi la discussione. Vogliamo che Prospettiva crei una terza opzione."

    Adams ha presentato uno scenario di esempio. Se chiedi a una stanza di 1.000 persone, "Quanti di voi leggono oggi qualcosa di cui tenevi davvero?" la maggior parte degli utenti di Internet indicherà un articolo, un tweet, un post o qualcosa che leggono online. Ma se poi chiedi loro: "Quanti di voi hanno pensato che valesse la pena di commentarlo o di discutere?" tutte le mani nella stanza scenderanno.

    "Per così tanti di noi, non vale la pena. La struttura della discussione che abbiamo in questo momento significa solo che è una responsabilità. Se hai un pensiero ragionevole attuale o qualcosa che vuoi condividere, per la maggior parte delle persone, non ' non voglio partecipare ", ha detto Adams. "Ciò significa che di quelle 1.000 persone che potrebbero essere nella stanza, hai solo una manciata rappresentata nella discussione; diciamo, 10 persone. Ho profonda fiducia nel fatto che possiamo costruire una struttura che permetta a quell'altra 990 di tornare nella discussione e lo fa in un modo che trovano degno del loro tempo ".

Come il puzzle di Google sta cercando di disintossicare Internet