GUARDA QUIhttps://www.accademiaitalianaprivacy.it/areaprivata/foto/369/01.png

Dettaglio news
Il Machine Learning e il rapporto con i dati: problemi etici e giuridici


mercoledì 3 giugno 2020
di Avv. Gianni Dell’Aiuto





Il termine Machine Learning è stato creato nel 1959 per indicare quella branca dell’intelligenza artificiale che raccoglie tutti i metodi sviluppatisi insieme al progresso dell’informatica e che consente ai computer di gestire nuove situazioni tramite analisi, auto-allenamento, osservazione ed esperienza. Si tratta, in altri termini, di un sistema di apprendimento automatico da parte delle macchine attraverso l'esposizione a nuovi scenari, test e adattamento, impiegando modelli e rilevamento delle tendenze per rendere più facile l'inidivudazione delle decisioni migliori in situazioni successive, anche laddove non identiche. Con l’utilizzo di metodi diversi quali le statistiche, le reti neurali artificiali, gli algoritmi, l'elaborazione delle immagini, una macchina viene allenata a migliorare le sue performance, apprendendo autonomamente dai dati senza ricevere istruzioni e migliorare le proprie performance.

Non è male pensare che le macchine possano migliorarsi con la loro stessa esperienza per offrire risposte e migliorare la propria funzionalità, il punto è che per farlo sono indispensabili dati che, non dimentichiamolo, devono essere forniti o raccolti in ambienti esterni. Ergo o volontariamente dall’uomo o raccolti dallo stesso con altri sistemi.

I problemi sono intuibili ed iniziano da quelli etici, perché una macchina è capace di operare alcune valutazioni, ma non altre e qualcuno ha già opportunamente posto in evidenza che i dati potrebbero essere inseriti in maniera faziosa o parziale per ottenere le risposte volute e avviare attività di condizionamento dell’opinione e del pensiero. Pensiamo cosa accadesse se venissero inseriti pregiudizi, messaggi razzisti, omofobi o di odio. Gli algoritmi non sono studiati, per quanto se ne sappia, per provare sentimenti. Oppure, senza voler cedere a teorie complottistiche, immaginiamo se la macchina fosse gestita da una multinazionale che vuole vendere il proprio prodotto o dimostrare, magari, che un farmaco è migliore di un altro per una determinata malattia. Si pone quindi per chi sviluppa questo sistema un problema di non poco conto, sia nella fase di progettazione e sviluppo, sia in quella della selezione dei dati da inserire e come valutarli.

Ma il problema da affrontare alla radice è quello della raccolta dei dati. Forse non è possibile immaginare la quantità di dati necessari per far funzionare in maniera utile i sistemi di Machine Learning, iniziando da quelli comportamentali e dai riconoscimenti facciali. Non preoccupiamoci, molti dati vengono forniti in maniera sbadata e volontaria con l’accesso ai social e un uso non propriamente responsabile di internet. Ma l’ignaro utente, probabilmente, se sapesse l’uso che ne può essere fatto, sarebbe più attento nel fare click.

Il punto comunque che qui preme sottolineare, è che con la continua crescita del panorama Internet, aumentato in maniera esponenziale durante il periodo di lockdown, gli utenti condividono una incredibile mole di dati personali, spesso sensibili, senza una conoscenza chiara su ciò che i fornitori di servizi fanno con questi. Mentre le normative impongono requisiti piuttosto rigidi che i fornitori di servizi dovrebbero rispettare, nella realtà le informative sulla privacy sono lunghe, talvolta complesse e mai lette, oltre che comprese. Conseguenza? Non viene raggiunto l’obiettivo di informare gli utenti sui processi di elaborazione dei dati dei fornitori di servizi a cui si dovrebbe fare una domanda alla quale solo pochi sanno rispondere: “dove si trova il server o il cloud ultimo in cui i dati vengono conservati? Chi li gestisce? Che cosa ne fa?". Inoltre, una considerazione sorge spontanea, anche a fronte del costante aumento del numero di furti di dati: questi non saranno acquistati solo da chi fa telemarketing e possiamo immaginare dove vadano.

Un problema che dovrà essere essee affrontato e, chissà, l’approccio potrebbe essere basato sull'apprendimento automatico di privacy policy strutturate sul GDPR. Sviluppatori, privacy advisors, ma anche le stesse aziende ben potrebbero iniziare a muoversi in tal senso per rendere effettiva la protezione del dato non solo da furti, ma anche da attività di profilazione non autorizzate o per le quali è usato un consenso assolutamente inefficace.




CONDIVIDI QUESTA PAGINA!