Casa Lungimiranza Conferenza sul codice: youtube, facebook, twitter executive su come ridurre i contenuti non validi

Conferenza sul codice: youtube, facebook, twitter executive su come ridurre i contenuti non validi

Sommario:

Video: Monologue: Tweet Sorrow | Real Time with Bill Maher (HBO) (Novembre 2024)

Video: Monologue: Tweet Sorrow | Real Time with Bill Maher (HBO) (Novembre 2024)
Anonim

Seguendo le orme di altre conferenze tecnologiche, la conferenza sul codice di quest'anno si è concentrata sul lato negativo della tecnologia, e in particolare sui social media, con i leader di Instagram, Twitter e YouTube che hanno grigliato sulle loro politiche per eliminare o non pubblicizzare contenuti discutibili.

Tutti questi dirigenti sembravano avere alcune variazioni della seguente conversazione: Sì, ci sono cose cattive sulla nostra piattaforma. Avremmo dovuto saperlo prima. Stiamo cercando di migliorare le cose. Ma è difficile. Ci dispiace se sei stato offeso.

Tutto ha un senso, ma non molesta tutti i critici, né mette a tacere le voci che chiedono la rottura o almeno una maggiore regolamentazione delle grandi piattaforme tecnologiche. Ecco cosa hanno detto alcuni dirigenti e alcuni critici durante lo spettacolo.

Youtube

Susan Wojcicki, CEO di YouTube, ha descritto le modifiche alla politica della piattaforma in materia di incitamento all'odio, affermando che se un video ora afferma che un gruppo (come una razza o una religione) è superiore, ciò non sarà più consentito; né i video che affermano che un altro gruppo è inferiore. Ha detto che l'azienda ha anche aggiunto altri gruppi all'elenco protetto, tra cui cast in India e vittime di eventi violenti verificati (come l'Olocausto). Ha detto che questi sono solo alcuni dei molti cambiamenti politici che l'azienda ha apportato nell'ultimo anno. Ha anche parlato di limitare la distribuzione di "contenuti borderline", quindi alcuni video che non sono bloccati non sono inclusi nei consigli di YouTube e non sono disponibili per essere monetizzati. Questo dice che ha ridotto la loro visione dell'80%.

Ma ha riconosciuto che tutto ciò ha continuato a provocare polemiche, iniziando la sua intervista scusandosi con la comunità LGBTQ e dicendo che capiva che le sue decisioni erano dannose per quella comunità, ma non era questo l'intento. La controversia riguarda la decisione di YouTube di consentire ai video di Stephen Crowder di rimanere sul sito, nonostante le lamentele di Carlos Maza di Vox secondo cui Crowder stava molestando lui e altri con commenti anti-LGBTQ. (Vox organizza la conferenza sul Codice.)

"Il contesto conta davvero", ha detto Wojcicki, dicendo che prima che l'impresa rimuova un video, considera se un video è dedicato alle molestie o un video di un'ora con un insulto razziale, se è un personaggio pubblico e se è dannoso nell'intento. Ha detto che determinare qualcosa di dannoso è un punto forte per l'azienda, dicendo che deve applicare coerentemente le politiche, perché ci sarebbero sempre video di cui le persone si lamentano. Ha notato che puoi trovare molte insulti razziali e commenti sessisti in cose come canzoni rap, discorsi a tarda notte e molto umorismo. Ha detto che la società vuole lavorare per cambiare le politiche, piuttosto che avere una reazione "istintiva" a una singola istanza.

Alla fine, ha detto che la società ha deciso che questi video non erano molestie e non ha violato le politiche, e ha detto che era la decisione giusta. Ma ha detto che la società stava sospendendo la monetizzazione, facendo in modo che il creatore di video trasse profitto dagli annunci pubblicati sul video.

Ha detto che se YouTube avesse rimosso quel video, ci sarebbero stati così tanti altri contenuti che avrebbe dovuto eliminare. Ma ha detto che la società eliminerà le cose e che molte delle modifiche apportate alla politica sull'odio saranno davvero utili per la comunità LGBTQ e comporteranno l'abbattimento dei video. E ha ripetuto le scuse per il dolore che avrebbe potuto causare.

Alla domanda dell'ospite della conferenza Peter Kafka se la scala di YouTube - con 2 miliardi di utenti e 500 ore di video caricati ogni minuto - significa che non puoi mai risolvere il problema, Wojcicki ha dichiarato: "Possiamo sicuramente migliorare il modo in cui gestiamo la piattaforma e vedo come molto abbiamo migliorato ". Ha notato che la società ha visto una riduzione del 50% della quantità di contenuti violenti negli ultimi due anni e ha oltre 10.000 persone che lavorano sui contenuti. Ma ha continuato a concentrarsi sulle cose cattive sulla piattaforma, osservando che c'erano anche molti contenuti fantastici. "Tutta la preoccupazione riguarda questo frazionario per cento dei contenuti", ha detto. Ma ha riconosciuto che c'è molto lavoro da fare per affrontare quel contenuto e ha detto che l'azienda sta investendo in strumenti e sta lavorando sodo per affrontarlo.

Ha scartato il suggerimento che potrebbe esserci una barriera per caricare video, dicendo "perderemmo molte voci". Ma ha parlato di avere più "livelli attendibili" di video in modo che chiunque possa iniziare a caricare le cose ma dovrebbe rispettare determinate regole per ottenere una distribuzione più ampia.

"Vediamo tutti questi vantaggi dell'apertura", ha affermato, ma ha notato che YouTube ha la responsabilità di comprendere il contenuto e decidere cosa dovrebbe essere raccomandato e cosa dovrebbe essere promosso.

Wojcicki ha affermato di ritenere che YouTube e Google debbano affrontare una maggiore regolamentazione, indicando le nuove normative sul copyright in Europa, ma ha affermato che è importante che i regolatori comprendano come implementare queste cose in modi ragionevoli a causa del potenziale per conseguenze indesiderate.

Chiesto da Kevin Roose del New York Times sul fatto che YouTube abbia contribuito alla radicalizzazione della politica, (sulla base di una sua recente storia) Wojcicki ha affermato che il sito ha preso molto sul serio le preoccupazioni della radicalizzazione e ha apportato una serie di modifiche a gennaio che hanno ridotto le raccomandazioni di "contenuto limite" del 50 percento.

Ha detto che YouTube vuole offrire una vasta gamma di opinioni, con gli utenti che scelgono ciò che vogliono vedere, ma che era preoccupato, e ha detto che pensava che tali cambiamenti nelle politiche e nelle raccomandazioni faranno la differenza.

Instagram e Facebook

Due dirigenti di Facebook hanno parlato di come Facebook, e in particolare Instagram, ha affrontato le critiche.

Adam Mosseri, a capo di Instagram, ha affermato che stiamo assistendo a "un cambio di paradigma verso forme di comunicazione più private", osservando che tutta la crescita su Instagram è venuta da storie e messaggi. Ha notato che le storie sono fugaci, mentre il feed è migliore se vuoi cose che sono in giro per sempre. Ha osservato che le storie non riguardano "la messaggistica di utilità" ma piuttosto "i principianti della conversazione".

Mosseri ha dichiarato che la società ha "un acceso dibattito acceso", in quanto esiste una vera tensione tra privacy e sicurezza. Ha dichiarato: "Abbiamo messo in gioco il fatto che la messaggistica dovrebbe essere assolutamente privata", ma ha convenuto che l'azienda ha bisogno di tempo per lavorare e tempo per trovare soluzioni alternative per la sicurezza.

Andrew Bosworth, che supervisiona la realtà artificiale, la realtà virtuale e altri progetti avanzati per Facebook, ha osservato che la privacy a volte significa privacy da Facebook, ma altri vogliono la privacy da parte del governo o del dispositivo. Storicamente, ha detto che la privacy per Facebook significava controllo sui dati e chi poteva vederli. Ma ha notato che si sta svolgendo in diversi modi, e ha detto che "la conversazione globale non avrà una risposta", poiché mercati diversi avevano opinioni diverse sul controllo del governo rispetto alla sicurezza.

Alla domanda di Casey Newton del Verge sul fatto che rompere Facebook e rendere Instagram una società separata sarebbe buona, Mosseri ha detto, "potrebbe rendere molto più facile la mia vita e probabilmente sarebbe utile per me come individuo, ma Penso solo che sia un'idea terribile. " Ha detto che su questioni come l'integrità elettorale e il discorso di odio, renderebbe esponenzialmente più difficile per Instagram proteggere i propri utenti. Ha detto che originariamente aveva promesso di mantenere Instagram indipendente da Facebook, ma ha mantenuto questa promessa quando si trattava di funzionalità di sicurezza perché Facebook ha più persone che lavorano su sicurezza e integrità rispetto al numero totale di persone che lavorano su Instagram.

Mosseri ha affermato che è fondamentalmente salutare la richiesta di responsabilità e Facebook ha commesso un errore non concentrandosi abbastanza intensamente sulle conseguenze indesiderate nei primi anni. "Dobbiamo fare di più per coltivare e far crescere il bene e affrontare il male", ha detto.

Bosworth ha affermato che quando un sito è piccolo, tutti i contenuti possono essere rivisti, anche se ciò ci pone problemi di privacy. Quando diventa più grande, non è possibile rivedere manualmente tutto il contenuto, ma si ottengono più risorse e una "economia di scala". Ha concordato sul fatto che Facebook fosse "massicciamente indietro su questo", ma ha detto che la società stava investendo massicciamente, dicendo che pensava che fosse un problema risolvibile, e che l'azienda stava lavorando sia su soluzioni tecniche che con regolatori su come rispondere. Non ti avvicini a risolverli dividendoli in squadre e dando a ogni squadra meno risorse, ha aggiunto.

Alla domanda se Facebook non è in grado di risolvere questi problemi perché offre servizi supportati dalla pubblicità, Bosworth ha dichiarato: "ci costa molto di più avere uno di questi contenuti marginali sulla piattaforma". Ha detto che Facebook ha avuto decine di migliaia di persone che hanno esaminato i contenuti. Se la compagnia fosse spietata e si sbarazzasse di tutti i discorsi controversi, ha affermato, sarebbe più efficace.

Mosseri ha affermato che dovremmo essere orgogliosi di poter utilizzare questo servizio gratuitamente. La società ha affermato che la pubblicità è ciò che consente alla società di fornire questo, ed è principalmente pagata da persone che possono permetterselo. Se tagli la pubblicità, tagli le persone.

Un cambiamento che Instagram sta testando sta nascondendo "mi piace" sul sistema. Mosseri ha affermato che non vogliamo che Instagram sia "un ambiente pressurizzato" e osserva come i Mi piace possano essere competitivi. Era fiducioso nel rendere privati ​​i like e conta, ma ha detto che è solo un esperimento.

Mosseri ha anche parlato del dispositivo Portal dell'azienda, che ha affermato specificamente "lasciato funzionalità del tavolo" eliminando la registrazione delle conversazioni. Ha detto che stiamo assistendo a un'intera nuova generazione di hardware con altoparlanti intelligenti, ma che Facebook ha voluto assicurarsi che "la connessione umana sia un uso di prima parte" ma con la privacy integrata.

Bosworth ha notato che Facebook vede la VR come "un'opportunità per approfondire" e fare esperienze significative anche quando non puoi esserci

cinguettio

Due dirigenti di Twitter hanno affrontato problemi simili, affrontando la contesa della copresidente della conferenza Kara Swisher secondo cui la piattaforma è un "pozzo nero" costruito su persone che possono dire quello che vogliono e poi dire cose terribili.

Twitter "fondamentalmente si basa sul far parlare le persone in pubblico, ha spiegato Kayvon Beykpour, responsabile del prodotto. Lo scopo del sito è" servire la conversazione pubblica ", il che" aiuta le persone a imparare, aiuta le persone a risolvere i problemi e aiuta le persone a rendersi conto che noi siete tutti insieme. "Questo è il punto di partenza, ma ha detto che c'è una" crisi esistenziale "perché se la conversazione non è salutare, la gente non vorrà partecipare.

Beykpour ha notato che la maggior parte delle persone su Twitter non ha grandi piattaforme, ma piuttosto decine o centinaia di follower e che le persone usano il servizio per trovare persone con interessi affini.

Vijaya Gadde, che è responsabile legale, delle politiche pubbliche e della sicurezza di Twitter, ha dichiarato che la società ha inizialmente spinto per un'espressione completamente libera, ma ora era più consapevole dell'impatto che stiamo avendo. Ha affermato che l'azienda ha un quadro politico incentrato sui diritti umani fondamentali, come la sicurezza e la libera espressione.

Ha notato che l'azienda stava affrontando una mancanza di fiducia e disinformazione sulla piattaforma. Ad aprile, nel contesto delle elezioni in India e in Europa, ha affermato che l'impresa ha lanciato nuove politiche progettate per frenare la disinformazione su come registrarsi per votare o dove votare. Ha detto che questo era ancora un processo di apprendimento, osservando ad esempio che alcune battute venivano eliminate. In altre aree, ha detto che se cerchi informazioni sui vaccini, verrai indirizzato a fonti attendibili. L'obiettivo è in particolare quello di prevenire "danni offline" alle persone.

Gadde ha osservato che Twitter ha avuto una "preferenza storica per non essere arbitro della verità", ma ha ammesso che è stato difficile farlo su larga scala. Invece, ha detto, l'azienda stava cercando di amplificare il contenuto che proviene da fonti affidabili. Col passare del tempo, ha detto, l'azienda dovrà fare di più e ha detto che stava guardando cosa stanno facendo le altre piattaforme.

Beykpour ha affermato che storicamente Twitter ha "sovra-ruotato" nel tentativo di risolvere attraverso la politica e l'applicazione, non attraverso il prodotto e la tecnologia. Ha detto che l'azienda ha fatto progressi in materia di salute e ne farà di più. Ha osservato che la società ha appena emesso una nuova politica semplificata che era più facile da leggere e ciò consentirebbe una migliore applicazione. Attualmente, ha affermato, il 40 percento dei tweet che le "azioni" dell'azienda vengono svolte in modo proattivo, a differenza dei reclami.

Ha affermato che l'azienda sta de-amplificando i contenuti e che le nuove politiche hanno ridotto del 45% la quantità di abusi segnalati; e il numero di blocchi di account del 30 percento. Inoltre, ha osservato che l'azienda ora sfida e blocca più accessi per cercare di impedire la registrazione di account dannosi; ma sta ancora affrontando problemi come indovinare la password bruta.

Alla domanda sui timori che le piattaforme dei social media stiano portando a una maggiore radicalizzazione, Gadde ha ammesso che era una preoccupazione. "Penso che ci siano contenuti su Twitter e tutte le piattaforme che contribuiscono alla radicalizzazione", ha affermato. Ma ha aggiunto che l'azienda ha molti meccanismi e politiche in atto per combattere questo. Ha affermato che il 90 percento di tutto il contenuto del terrorismo viene immediatamente rimosso e ha vietato 110 gruppi estremisti violenti.

Gadde ha affermato che le regole di Twitter "sono un documento vivo", con nuove ricerche che rispondono a nuovi danni, avvisando l'azienda se c'è più di quanto possiamo fare. Ha notato che "le cose brutte accadono anche su piattaforme private". Perché Twitter è completamente aperto, ha detto, tutti possono vedere e rispondere. Ma ha notato che essere aperti può essere uno svantaggio perché offre alle persone una piattaforma. Ha affermato che l'azienda stava cercando di trovare il giusto equilibrio tra l'interesse pubblico e la capacità di visualizzare e rispondere e i problemi che il contenuto potrebbe causare. Ha notato che l'azienda deve lavorare su soluzioni globali, poiché l'80% dei suoi utenti non era negli Stati Uniti

Ha parlato dell'importanza della trasparenza e di essere molto chiara su quali siano le regole. Ma ha anche menzionato la notizia dei contenuti, osservando che con i personaggi pubblici, anche se Twitter dovesse eliminare un tweet, tali contenuti attirerebbero l'attenzione.

In risposta a una domanda del pubblico, Gadde ha affermato che Twitter era "molto, molto concentrato sulla radicalizzazione", dicendo che se rivendichi un'associazione con gruppi estremisti violenti, non puoi essere su Twitter. Ma ha detto che l'azienda ha del lavoro da fare per capire come fare di più e che i cambiamenti arriveranno. Rispondendo a un'altra domanda sugli abusi rivolti alle donne, ha affermato che consentire a Twitter di essere più proattivo farà una grande differenza. Ma ha detto di essere molto preoccupata per il silenzio delle voci, in particolare quelle delle minoranze e delle donne.

Beykpour ha affermato che una possibile soluzione è quella di dare ai clienti un maggiore controllo su come possono sentirsi più sicuri sulla piattaforma, come dare agli autori la possibilità di moderare le risposte all'interno di un thread di conversazione. Ha anche parlato di nuovi tipi di conversazioni, osservando che l'attuale Twitter è praticamente solo tweet pubblici che vivono per sempre e messaggi diretti. Ha notato che nel mezzo, l'azienda non supporta - ma sta prendendo in considerazione - cose come una conversazione pubblica che potrebbe essere limitata a quattro persone.

medio

Ev Williams, CEO di Medium e co-fondatore di Blogger e Twitter, si è concentrato maggiormente su Medium, un servizio in abbonamento che ha affermato che sta crescendo a un ritmo salutare, ma che non darebbe numeri. Ha detto che le persone si iscrivono al servizio per idee e prospettive, in argomenti che vanno dalla salute al JavaScript alla scrittura letteraria.

Ha discusso dell'importanza del raggruppamento dei contenuti. Ha affermato di essere "molto fiducioso negli abbonamenti per contenuti editoriali" ma che potrebbe essere difficile per molti siti Web. "Non ci iscriviamo a programmi TV o artisti musicali individualmente." Invece, con Medium, sta cercando di costruire una piattaforma che includa siti di proprietà e gestiti, nonché la diversità di altri siti. Ha detto che Medium ha centinaia di migliaia di persone che scrivono ogni mese.

Era convinto che il contenuto in bundle avrebbe avuto successo e ha detto che non c'erano concorrenti diretti, sebbene qualsiasi sito web che abbia un abbonamento e qualcosa come Apple News + con il suo pacchetto di riviste, competesse.

Williams ha affermato che le politiche di Medium sono cambiate nel tempo e che la sua moderazione dei contenuti è ora "piuttosto aggressiva" in ciò che è disposto a smantellare. A Medium, ha detto, "tutto ciò che consigliamo è prima approvato da un essere umano". Ha riconosciuto che significa che il sito non sarà mai grande quanto i social media, ma ha detto che lo "scambio di valore" dell'azienda che mette i tuoi contenuti in un pool di curation ma dietro un paywall, si ridimensionerà.

Sebbene si sia concentrato su Medium, Williams ha discusso di social media e blog. Ha detto che gli manca il blog, come qualcosa tra pensieri estremamente casuali sui social media e articoli di lunga durata. Ha detto che nei blog le cose potrebbero "marinare" in contrapposizione alla "dipendenza da feedback a breve termine che è dannoso per il pensiero".

Il problema, ha detto, è che "Il feedback immediato è probabilmente fonte di confusione per conversazioni salutari". Ha notato che le persone si appassionano al feedback a breve termine, come la visualizzazione pubblica di follower o Mi piace su un post. Ha detto che è impossibile vivere in quell'ambiente e non farlo cambiare il tuo comportamento. Altri sistemi con feedback più lento, come newsletter o podcast, consentono più contesto e conversazioni migliori, ha detto. "Se ogni pezzo di comunicazione deve resistere da solo, perdi la capacità di approfondire", ha detto.

Ha detto che la conversazione politica è stata "più rumorosa di quanto non sia mai stata", e questo lo rende più difficile, anche se si desidera ascoltare molte prospettive. Ma ha detto che ci sono punti luminosi.

"Il motivo per cui mi sono emozionato per il web in primo luogo è che pensavo che ci avrebbe reso più intelligenti", ha detto Williams. Pensava che se le persone potessero mettere le idee là fuori, il mondo avrebbe fatto scelte più intelligenti. Ma ha detto che non è andata così per i sistemi di feedback e gli incentivi. "Parte di esso è il limite dell'intervallo di attenzione umana", ha detto, osservando che ulteriori informazioni non ci rendono più intelligenti se non sappiamo come digerirli o come contestualizzarli, in particolare se ci sono industrie che cercano di ti fanno comprare cose.

Questo è uno dei motivi per cui ha iniziato a lavorare su Medium 7 anni fa. Ha notato che con un servizio in abbonamento, i clienti pagano, quindi è necessario creare un prodotto che qualcuno trova abbastanza prezioso per pagare. Ha detto che era meglio della pubblicità, che si concentrava su quanto a buon mercato puoi attirare l'attenzione di qualcuno.

Un pannello di critica

Naturalmente, anche le grandi piattaforme avevano un sacco di critici durante lo spettacolo. In particolare, un panel comprendeva Nicole Wong, ex vice capo della tecnologia statunitense e ex vice consigliere generale di Google; Jessica Powell, ex vicepresidente delle comunicazioni di Google e autrice di The Big Disruption ; e Antonio García Martínez, ex Facebook e autore di Chaos Monkeys.

"Questi non sono nuovi problemi, sono stati lì fin dall'inizio", ha detto Powell, osservando che si preoccupava per "conseguenze non intenzionali" e che il monitoraggio dei contenuti è difficile. Ha detto che è bello che le piattaforme stiano adottando politiche più rigorose "ma avrebbero dovuto essere lì molto prima".

Wong ha osservato che nella prima era di Internet "stavamo costruendo tecnologia e pensando di cambiare il mondo per sempre". Ha detto che è fantastico ed esiste ancora, e che le persone tecnologiche sono in gran parte lì per fare del bene. Ma ha detto che le persone erano pigre nel non riconoscere che la tecnologia non è intrinsecamente buona. Ha detto che ora sappiamo com'è vedere una "Internet armata" e dobbiamo costruire sistemi per renderlo conto. "Nessuno ci deve una rete gratuita e aperta progettata per il nostro bene, e dobbiamo costruirla."

García Martínez ha detto che se qualcuno regolerà il discorso su Facebook, dovrebbe essere il governo. "Una democrazia è la struttura in cui si ottiene la responsabilità, non una società", ha detto. Ma ha detto che pensava che Facebook avrebbe dovuto essere comunque interrotto, con Instagram e What's App separati, dicendo che se aumentassi il livello di moderazione dei contenuti, potresti ottenere un vantaggio competitivo.

Powell ha affermato che esiste un'argomentazione credibile secondo cui se si dispone di più dati, è possibile addestrare meglio i modelli di intelligenza artificiale, in modo da avere meno moderazione umana. Ma ha suggerito che l'industria potrebbe trovare un modo per mettere insieme le informazioni per tutti i giocatori, dicendo che questo è già stato fatto per lo sfruttamento dei minori e che dovremmo essere in grado di capire come farlo per il bullismo. Nel complesso, ha affermato, qualsiasi normativa deve affrontare questioni di controllo e trasparenza, affermando che è sbagliato che una startup oggi debba preoccuparsi del percorso da acquisire.

García Martínez ha detto che c'è sempre un compromesso tra privacy, convenienza e sicurezza e ha detto che va bene se sai quali compromessi stai facendo. Ma ha suggerito di sbarazzarsi di aggregatori di dati di terze parti.

In un'altra sessione, il comico e critico Baratunde Thurston ha spinto la propria piattaforma di "nove modi per non rovinare il futuro". Questi elementi includono i punteggi di trasparenza e affidabilità, modificando il valore predefinito per la chiusura delle conversazioni; e proprietà e portabilità dei dati. Ma ha ottenuto la massima attenzione descrivendo Facebook come un "servizio di scuse basato sul cloud" che offre "Apologia come servizio".

Inoltre, il professor Scott Galloway di New York Stern, noto per il suo libro The Four: The Hidden DNA di Amazon, Apple, Facebook e Google , ha fatto una serie di previsioni per l'anno a venire. Sono incluse in queste previsioni le previsioni secondo cui un alto funzionario di Facebook verrà arrestato e detenuto in territorio straniero e che vi sarà una maggiore regolamentazione delle grandi aziende tecnologiche. Ha detto di aver pensato che, attraverso spin-off e rotture, Big Tech aggiungerà più valore della capitalizzazione totale di Boeing e Airbus nei prossimi sei mesi.

Conferenza sul codice: youtube, facebook, twitter executive su come ridurre i contenuti non validi