Sommario:
- Proprietà dei dati e privacy
- Il diritto all'oblio
- Il diritto alla spiegazione
- AI di outsourcing
- Il GDPR ostacolerà l'innovazione AI?
Video: GDPR Tutorial - 11 Impatto sulle aziende (Novembre 2024)
In quella che può essere descritta come una specie di corsa agli armamenti, le aziende tecnologiche hanno accumulato grandi volumi di dati utente per affinare gli algoritmi di intelligenza artificiale che alimentano le loro applicazioni e piattaforme. Finora, sono stati per lo più in grado di eludere la responsabilità quando le loro pratiche li hanno spinti in aree legalmente ed eticamente grigie.
Potrebbe sembrare una brutta notizia per le aziende che utilizzano algoritmi di intelligenza artificiale, che hanno beneficiato di lassù regolamenti sulla raccolta dei dati (e documenti lunghi, noiosi e ambigui sui termini di servizio). Alcuni temono che regole più rigorose ostacolino l'innovazione e la diffusione dell'intelligenza artificiale in molte applicazioni e settori. Altri credono che la nuova direttiva creerà una base in cui le applicazioni AI diventeranno più affidabili e affidabili.
In ogni caso, l'industria dell'IA sta subendo un grande cambiamento nell'era del GDPR.
Proprietà dei dati e privacy
"Il GDPR è un grosso problema per l'IA, perché richiede che pensiamo diversamente al modo in cui raccogliamo e utilizziamo i dati", afferma Tim Estes, fondatore e presidente del ragionamento digitale. "Per troppo tempo, le aziende tecnologiche hanno insistito sul fatto che per ricevere valore dai loro prodotti e servizi, dovevi rinunciare ai tuoi dati".
In precedenza, le aziende dovevano ricevere solo un vago consenso da parte degli utenti per raccogliere tutti i tipi di dati. "L'intelligenza artificiale ha contribuito a mantenere viva l'hype sui big data, fornendo ancora un altro motivo per cui le aziende dovrebbero raccogliere e estrarre tutti i dati disponibili", afferma Estes. "Molte aziende hanno iniziato a implementare l'intelligenza artificiale per analizzare i propri dati solo perché pensano che dovrebbero - senza pensare all'impatto sulla privacy dell'utente o sulla proprietà dei dati".
La premessa di base del GDPR è che i dati appartengono agli utenti. Ai sensi del GDPR, le aziende dovranno rivelare la portata completa delle informazioni che raccolgono, nonché il modo in cui le utilizzano e come le proteggeranno e impediranno l'accesso non autorizzato. Le nuove regole costringeranno le aziende di intelligenza artificiale a essere più meticolose riguardo ai dati che raccolgono rispetto a impegnarsi in accaparramento, elaborazione e condivisione delle informazioni dell'utente.
Il diritto all'oblio
Il GDPR offre agli utenti il potere di richiedere che un'azienda cancelli tutti i propri dati dai propri server. Ciò non andrà bene con le aziende di intelligenza artificiale, che hanno un interesse acquisito a conservare il maggior numero possibile di dati utente per eseguire attività come la previsione delle tendenze e il comportamento degli utenti.
"Alla fine della giornata, il GDPR riguarda il modo in cui raccogli e gestisci i dati e non necessariamente la quantità di dati che hai", afferma Maryna Burushkina, CEO di GrowthChannel. "La principale difficoltà che la maggior parte delle aziende dovrà affrontare non è molto legata all'ottenimento di opt-in, ma piuttosto alla gestione dei dati, alla comunicazione dell'utilizzo dei dati agli utenti e alla possibilità per gli utenti di eliminarli".
Le aziende di intelligenza artificiale dovranno compiere ulteriori passi per anonimizzare i propri dati se desiderano comunque avere accesso a tali approfondimenti. Ma altre sfide devono affrontare le aziende che dispongono già di grandi quantità di dati degli utenti.
"Ai sensi del GDPR, se una società desidera cancellare una PII specifica, deve assicurarsi che venga cancellata ovunque", afferma Amnon Drori, CEO di Octopai. Questa può essere un'attività scoraggiante da eseguire manualmente quando i tuoi dati sono sparsi su server diversi e archiviati in diversi formati strutturati e non strutturati.
Ad esempio, quando si elimina il numero della carta di credito di un utente (sicuramente un'informazione sensibile), le aziende dovranno esaminare ogni report, database, oggetto di database ed ETL in cui sono archiviate le informazioni. "A volte vediamo nomi di metadati diversi per lo stesso articolo: ad esempio, " numero di carta di credito ", " numero cc ", numero di credito c", "numero di carta", "numero di carta di credito"… l'elenco continua e ", dice Drori. Spesso è impossibile sapere dove cercare e il processo può richiedere settimane o addirittura mesi e, come molti processi manuali, è soggetto a errori umani e imprecisioni, afferma Drori.
Il GDPR aumenterà anche il costo degli errori umani nella gestione dei dati. "Questo è il motivo per cui così tante aziende oggi stanno cercando una soluzione automatizzata per gestire accuratamente i loro metadati", afferma Drori. Forse ironicamente, l'IA stessa può essere una soluzione in questo senso. Gli strumenti di gestione dei metadati basati sull'intelligenza artificiale possono eseguire la scansione di tutte le origini dati all'interno di un'organizzazione e consolidare le relazioni tra diversi strumenti e origini dati.
Il diritto alla spiegazione
Una delle parti più significative del GDPR per quanto riguarda l'IA è ciò che è diventato noto come il "diritto alla spiegazione". La direttiva stabilisce che le società devono informare gli utenti "dell'esistenza di un processo decisionale automatizzato" e fornire loro "informazioni significative sulla logica in questione, nonché sul significato e sulle conseguenze previste di tale trattamento per l'interessato".
Ciò significa fondamentalmente che gli utenti devono sapere quando sono direttamente o indirettamente soggetti agli algoritmi AI e dovrebbero essere in grado di contestare le decisioni prese da tali algoritmi e richiedere la prova di come sono state tratte le conclusioni. Questa sarà una delle maggiori sfide che l'industria dell'IA dovrà affrontare.
Le reti neurali profonde, la principale tecnologia alla base degli algoritmi AI contemporanei, sono strutture software complesse che creano le proprie regole di funzionalità analizzando grandi serie di dati e trovando correlazioni e modelli. Man mano che le reti neurali diventano più complesse, il loro comportamento diventa sempre più difficile da decomporre. Spesso, nemmeno gli ingegneri possono spiegare i motivi alla base delle decisioni prese dai loro algoritmi AI.
Chiamato il problema della "scatola nera", l'inesplicabilità degli algoritmi di intelligenza artificiale ha reso difficile implementarli nelle decisioni in tribunale, nelle forze dell'ordine, nelle domande di prestito e credito, nel reclutamento, nell'assistenza sanitaria e in altri settori critici. Ma senza alcuna leva legale, le aziende di IA avevano pochi incentivi a rendere i loro algoritmi di IA più trasparenti, specialmente quando erano strettamente legati ai loro segreti commerciali.
Ora, il GDPR terrà le aziende di intelligenza artificiale per tenere conto delle decisioni prese dai loro algoritmi.
"Come parte del GDPR, le organizzazioni sono responsabili di descrivere chiaramente il metodo di elaborazione in linguaggio umano mentre richiedono il consenso della materia", afferma Pascal Geenens, ricercatore di sicurezza presso Radware. "Poiché il deep learning si evolve e gli scienziati dei dati non sono in grado di caratterizzare una natura deterministica alla base del ragionamento della rete neurale, questa descrizione potrebbe diventare più complessa e difficile da spiegare."
Fondamentalmente, il GDPR riguarda la responsabilità delle persone che elaborano i dati, afferma Geenens. Pertanto, se si utilizzano algoritmi di apprendimento automatico per eseguire l'elaborazione, è necessario progettarli in modo da consentire di spiegare le decisioni che prendono per proprio conto.
Una manciata di organizzazioni sta cercando di sviluppare tecnologie per rendere l'IA più trasparente. Tra questi spicca l'Explainable AI (XAI) di DARPA, un progetto di ricerca che mira a rendere comprensibili le decisioni basate sull'IA.
AI di outsourcing
Il GDPR interesserà anche le organizzazioni che rendono i loro dati disponibili a terzi. Un esempio di spicco di tale società è Facebook; nello scandalo Cambridge Analytica, il colosso dei social media non è riuscito a impedire alla società di data mining di raccogliere e abusare dei dati di 87 milioni di utenti. Ma il GDPR avrà anche implicazioni per le aziende che esternalizzano le loro funzionalità di intelligenza artificiale e rendono i loro dati disponibili ai fornitori di intelligenza artificiale.
"Mentre molti presumono che i fornitori di IA siano come altri fornitori di servizi - semplicemente offrendo la propria tecnologia in cambio di una compensazione monetaria - la verità è che i fornitori di IA hanno anche stretto accordi commerciali come un modo per sviluppare ed evolvere la loro tecnologia", afferma Estes, il capo dirigente di Digital Reasoning. Ciò significa che un fornitore di intelligenza artificiale potrebbe voler conservare i dati di un cliente per addestrare ulteriormente i propri algoritmi e utilizzarli in altri domini.
Ad esempio, un fornitore di AI che aiuta un'organizzazione sanitaria a trovare modelli di sintomi e migliorare le diagnosi potrebbe imbattersi in un set di dati che migliora i suoi algoritmi proprietari. La società di intelligenza artificiale potrebbe quindi voler sfruttare i dati per migliorare i suoi algoritmi per altri tipi di assistenza ai pazienti, per evolvere le sue capacità per aiutare altri operatori sanitari. Ai sensi del GDPR, l'organizzazione sanitaria responsabile dei dati sarà tenuta in considerazione per qualsiasi utilizzo non etico da parte del fornitore di AI. La chiave, secondo Estes, è che le aziende cercano fornitori di intelligenza artificiale che credono nel possesso degli algoritmi, non dei dati.
"Il GDPR costringerà le aziende a prestare maggiore attenzione a come e quando i loro dati vengono utilizzati, dove vengono archiviati e cosa succede dopo il completamento di un progetto", afferma Estes. "Ciò significa lavorare con i fornitori di AI che aiutano a definire le linee di proprietà dei dati e ad attuare strategie che proteggono le informazioni degli utenti, senza ostacolare il modo in cui è in grado di contribuire a far evolvere il successo degli algoritmi di intelligenza artificiale".
Il GDPR ostacolerà l'innovazione AI?
Gli esperti con cui abbiamo parlato credono che, sebbene le nuove normative mettano in discussione le pratiche e le abitudini attuali adottate dalle società di intelligenza artificiale, le costringeranno anche a trovare nuovi modi per innovare e anche a mantenere il rispetto della privacy e degli standard etici.
"Con l'entrata in vigore della normativa GDPR, tutte le principali società di software stanno adottando le misure necessarie non solo per garantire la conformità, ma anche per innovare e pensare fuori dagli schemi per trovare nuove opportunità sul mercato", afferma Burushkina di GrowthChannel.
"L'innovazione non sarà ostacolata, ma diretta e motivata, dal GDPR", afferma Drori di Octopai. Nel frattempo, il GDPR darà anche origine a nuove attività e tecnologie che aiuteranno le organizzazioni a raggiungere e mantenere la conformità al GDPR.
Gli standard stabiliti dal GDPR potrebbero infatti contribuire a colmare il crescente divario di fiducia tra i fornitori e gli utenti dei servizi basati sull'intelligenza artificiale. Estes ritiene che il GDPR renderà sia i fornitori di AI che quelli che implementano la loro tecnologia più responsabili di come e dove usano le risorse di dati e li spinge a mettere gli utenti prima dei profitti. "Alla fine della giornata", afferma, "i fornitori di servizi di intelligenza artificiale dovrebbero solo possedere gli algoritmi, non i dati, per innovare le loro capacità e soluzioni".