Casa Caratteristiche 10 Algoritmo imbarazzante fallisce

10 Algoritmo imbarazzante fallisce

Sommario:

Video: I MOMENTI PIÙ DIVERTENTI ED IMBARAZZANTI DELLO SPORT (Settembre 2024)

Video: I MOMENTI PIÙ DIVERTENTI ED IMBARAZZANTI DELLO SPORT (Settembre 2024)
Anonim

La tecnologia non è solo per i geek, è per tutti, e questo è un sacco di gente. Con solo una manciata di aziende che controllano la maggior parte dell'hardware e del software, da Apple e Amazon a Facebook, Microsoft e Google, possono fare solo così tanto per controllare il portafoglio e i bulbi oculari. Cosa deve fare una società povera e gigantesca? Affidati agli algoritmi per prendere alcune delle decisioni importanti.

Oxford Living Dictionaries definisce l'algoritmo come "un processo o un insieme di regole da seguire nei calcoli o in altre operazioni di risoluzione dei problemi, soprattutto da un computer". Un esempio perfetto è il feed di notizie di Facebook. Nessuno sa come funziona che alcuni dei tuoi post vengano visualizzati o meno nei feed di notizie di alcune persone, ma Facebook lo fa. O che dire di Amazon che ti mostra libri correlati? Ricerche correlate su Google? Tutti questi sono segreti strettamente custoditi che fanno molto lavoro per l'azienda e possono avere un grande impatto sulla tua vita.

Ma gli algoritmi non sono perfetti. Falliscono e alcuni falliscono in modo spettacolare. Aggiungi il bagliore dei social media e un piccolo glitch può trasformarsi in un incubo di PR davvero veloce. Raramente è dannoso; questi tendono ad essere ciò che il New York Times chiama "Frankenstein Moments", in cui la creatura creata da qualcuno si trasforma in un mostro. Ma succede, e abbiamo compilato alcuni degli esempi recenti più eclatanti di seguito. Facci sapere i tuoi preferiti nei commenti qui sotto.

    1 Annunci discutibili di Instagram

    Come riportato da The Guardian , a Facebook piace pubblicare annunci per il suo servizio Instagram con post dei propri utenti. Ma l'algoritmo ha scelto la "foto" sbagliata da spingere agli amici di Olivia Solon, lei stessa giornalista di The Guardian , selezionando uno screenshot di un anno che ha fatto di una e-mail minacciosa.

    2 annunci razzisti mirati

    La scorsa settimana, ProPublica ha riferito che Facebook ha consentito agli inserzionisti di scegliere come target categorie offensive di persone, come "odiatori di ebrei". Il sito ha pagato $ 30 per un annuncio (sopra) destinato a un pubblico che avrebbe risposto positivamente a cose come "perché gli ebrei rovinano il mondo" e "Hitler non ha fatto nulla di male". È stato approvato entro 15 minuti.

    Slate ha trovato categorie altrettanto offensive, ed è diventato un altro nella lunga serie di articoli su cui Facebook non solo ha dovuto scusarsi, ma ha promesso di risolvere con una certa supervisione umana. Sai, come quando pubblicò annunci elettorali per la Russia per un valore di $ 100.000.

    In un post di Facebook, la COO Sheryl Sandberg ha dichiarato di essere "disgustata e delusa da quelle parole" e ha annunciato modifiche ai suoi strumenti pubblicitari.

    BuzzFeed ha controllato per vedere come Google avrebbe gestito cose simili e ha scoperto che era facile anche impostare annunci mirati per essere visti da razzisti e bigotti. The Daily Beast lo ha verificato su Twitter e ha trovato milioni di annunci usando termini come "nazista", "wetback" e la parola N.

    3 anni di Facebook in Review Woes

    Se sei su Facebook, senza dubbio hai visto i suoi video generati dall'algoritmo di fine anno con i momenti salienti degli ultimi 12 mesi. O per alcuni, le luci basse. Nel 2014, un padre ha visto una foto della sua defunta figlia, mentre un altro ha visto le istantanee della sua casa in fiamme. Altri esempi includono persone che vedono i loro animali domestici in ritardo, urne piene di ceneri di un genitore e amici deceduti. Entro il 2015, Facebook ha promesso di filtrare i ricordi tristi.

  • 4 crash del pilota automatico Tesla

    La maggior parte dei serpenti algoritmici sono tutt'altro che fatali, ma il mondo delle auto a guida autonoma porterà un livello completamente nuovo di pericolo. È già successo almeno una volta. Un proprietario di Tesla su un'autostrada della Florida ha usato la modalità semi-autonoma (pilota automatico) e si è schiantato contro un rimorchio del trattore che lo ha interrotto. Tesla emise rapidamente aggiornamenti, ma era davvero colpa della modalità Pilota automatico? L'amministrazione della sicurezza stradale del National Highway afferma che forse non dal momento che il sistema richiede che il conducente rimanga vigile per problemi, come puoi vedere nel video sopra. Ora, Tesla impedisce al pilota automatico di essere attivato anche se il conducente non risponde prima ai segnali visivi.

  • 5 Tay the Racist Microsoft AI

    Un paio di anni fa, i bot di chat avrebbero dovuto prendere d'assalto il mondo, sostituendo i rappresentanti del servizio clienti e rendendo il mondo online un posto loquace per ottenere informazioni. Microsoft ha risposto a marzo 2016 pubblicando un'intelligenza artificiale di nome Tay con cui le persone, in particolare i giovani tra i 18 ei 24 anni, potevano interagire su Twitter. Tay a sua volta farebbe tweet pubblici per le masse. Ma in meno di 24 ore, imparando dalle masse dalla bocca sporca, Tay divenne un razzista in piena regola. Microsoft abbatté Tay all'istante; è tornata come nuova IA di nome Zo nel dicembre 2016, con "forti controlli ed equilibri in atto per proteggerla dallo sfruttamento".

    6 complimenti per il tuo bambino (inesistente)!

    Divulgazione completa: mentre scrivo, mia moglie è in realtà incinta. Entrambi abbiamo ricevuto questa email da Amazon dicendo che qualcuno aveva acquistato qualcosa per noi dal nostro registro dei bambini. Non lo avevamo ancora reso pubblico, ma non era così scioccante. Nel frattempo, anche diversi milioni di altri clienti Amazon hanno ricevuto la stessa nota, inclusi alcuni senza registro… o un bambino in arrivo. Avrebbe potuto far parte di uno schema di phishing, ma non lo era. Amazon ha rilevato l'errore e ha inviato un'email di scuse di follow-up. A quel punto, molti si erano lamentati che questo era inappropriato o insensibile. Questo era meno algoritmo del server di posta elettronica glitch, ma dimostra che è sempre facile offendere.

    7 materiali bomba di Amazon "Raccomanda"

    Tutti hanno saltato su questo dopo che è stato riportato dal Channel 4 News del Regno Unito, da Fox News al New York Times . Presumibilmente ha scoperto che la funzione "frequentemente comprata insieme" di Amazon mostrerebbe alle persone ciò di cui hanno bisogno per costruire una bomba, se iniziassero con uno degli ingredienti, che il sito non chiamerebbe (era nitrato di potassio).

    Quello che l'algoritmo di Amazon in realtà ha fatto è stato mostrare agli acquirenti gli ingredienti per produrre polvere nera in piccole quantità, il che è totalmente legale nel Regno Unito e viene utilizzato per ogni genere di cose - come i fuochi d'artificio - come è stato rapidamente sottolineato in un modo incredibilmente ben pensato- post del blog su Idle Words. Invece, tutti i rapporti parlano di come Amazon lo sta esaminando, perché è quello che hanno da dire che stanno facendo in un mondo spaventato dal terrorismo e dalla logica.

    8 Google Maps diventa razzista

    Nel 2015, Google ha dovuto scusarsi quando Google Maps ha cercato "n ***** king" e "n *** a house", hanno portato alla Casa Bianca, che all'epoca era ancora occupata da Barack Obama. Questo era il risultato di una "Googlebomb", in cui un termine usato ripetutamente viene raccolto dal motore di ricerca e contrassegnato come "popolare" in modo che i risultati vadano in cima alla ricerca. È così che la parola "Santorum" ha ottenuto la sua nuova definizione.

    9 Google Tag Humans as Gorillas

    Google Foto è un'app / servizio incredibile che memorizza tutte le tue foto e molto altro. Una di queste cose è taggare automaticamente le persone e le cose nelle foto. Usa il riconoscimento facciale per le persone per restringerli fino alla persona corretta. Ho anche una cartella di tutti i miei cani e non ho taggato nessuno di loro. Per come funziona, è stato egregio quando nel 2015 Google ha dovuto scusarsi con il programmatore di computer Jacky Alciné quando lui e un suo amico - entrambi neri - sono stati identificati dal servizio come gorilla. "Siamo sconvolti e sinceramente dispiaciuti di ciò", ha detto Google a PCMag.

    10 La sicurezza del robot colpisce bambino, uccide se stesso

    Knightscope produce robot di sicurezza autonomi chiamati K5 per pattugliare scuole, centri commerciali e quartieri. I coni di Dalek alti 5 piedi su ruote - che al loro attivo, sono ancora in fase di beta test - tendono a fare notizia non per contrastare il crimine ma per i glitch.

    Ad esempio, a luglio 2016, il K5 nel centro commerciale di Stanford a Palo Alto ha investito un piede di un bambino di 16 mesi e Knightscope ha dovuto scusarsi formalmente. Quella stessa posizione - forse lo stesso droide - ebbe un'alterazione in un parcheggio con un ubriaco, ma almeno non era colpa del K5. La giuria è ancora fuori nell'unità K5 nel Georgetown Waterfront, complesso di uffici / negozi a Washington DC… che presumibilmente è inciampato giù per le scale in una fontana dopo solo una settimana di lavoro. Non sembra buono per l'esercito di Skynet.

10 Algoritmo imbarazzante fallisce