GUARDA QUIhttps://www.accademiaitalianaprivacy.it/assets/images/immagineFB.jpg

Dettaglio news
Riconoscimento facciale nei luoghi pubblici


lunedì 27 gennaio 2020
di Dott.ssa Silvia Matteucci





In Cina, come negli Stati Uniti, l'utilizzo il riconoscimento facciale nei luoghi pubblici diventa sempre più invasivo, mentre nell'Unione Europea frena sull'utilizzo di una tecnologia ad alto rischio per la privacy e prepara una moratoria per valutare i potenziali pericoli. 

Gli occhi saranno la nostra password, ma nell'era della sorveglianza di massa, i nostri dati biometrici (il volto, l'altezza, i segni particolari) conservati in database, potrebbero essere usati per spiarci e seguirci ovunque. L'allarme è contenuto in un documento anticipato ieri da Reuters e Politico che prevede la possibilità di introdurre un divieto «a tempo determinato», da tre a cinque anni, per sviluppare «una solida metodologia per valutare gli impatti e le possibili misure di gestione dei rischi». Con eccezioni limitate a progetti di sicurezza, oltre che di ricerca e sviluppo.

Negli Stati membri Ue i dati biometrici possono esser raccolti solo con il consenso della persona interessata e usati unicamente nell'ambito di procedimenti giudiziari o per motivi di interesse pubblico. In Italia il progetto più rilevante è certamente il Sistema automatico di riconoscimento immagini (Sari), enorme database utilizzato dalle forze dell'ordine che contiene i nomi e i volti di 16 milioni di persone, ma nuove sperimentazioni sono alle porte. A Dicembre è stato messo in funzione il sistema di riconoscimento biometrico per l'accettazione e l'imbarco all'aeroporto di Fiumicino, primo scalo in Italia e tra i primi in Europa a testare la procedura, che riguarda i passeggeri diretti ad Amsterdam con Klm. “Tutte le informazioni verranno cancellate entro un'ora dal decollo. Nulla rimane nei server di AdR” assicura la società. Iniziativa analoga è stata annunciata dall'aeroporto di Linate, che dovrebbe dotarsi del sistema entro il 2021. Si prepara a chiedere l'autorizzazione a installare un software di riconoscimento facciale, con l'obiettivo di combattere il razzismo e controllare i turbolenti.

Mentre le iniziative si moltiplicano, la Ue mostra prudenza. “I rischi sono certamente rilevanti - spiega Giuseppe Busia, segretario generale del Garante per la protezione dati personali - il nuovo Regolamento europeo sulla protezione dei dati considera quelli biometrici tra i più delicati e prevede che il trattamento sia vietato, salvo alcune deroghe specifiche, perché la raccolta a distanza attraverso telecamere è estremante invasiva. Le persone non hanno contezza del fatto che, grazie all'identificazione, vengono seguite in tutti i loro movimenti, negli incontri, nelle relazioni e negli atteggiamenti: si realizza una sorveglianza globale, continua e massiva”.

Il pericolo, avverte, è “che si vada nella direzione di alcuni esperimenti effettuati in Cina, dove attraverso il massivo uso nelle strade si è arrivati alla identificazione dei comportamenti di ciascuno sino all'attribuzione di un rating sociale e di una cittadinanza "a punti. Quindi, è bene, che ci sia una riflessione profonda su strumenti che limitano notevolmente la libertà delle persone”.

In Italia, se si vogliono attivare questi sistemi “occorre verificare di avere una base giuridica puntuale e rispettare i principi generali del regolamento europeo”, il Gdpr, operativo dal 25 maggio 2018, che norma la materia all'articolo 9: “è vietato trattare dati personali che rivelino l'origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l'appartenenza sindacale, nonché trattare dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all'orientamento sessuale”. In più l'articolo 36 prevede che l'autorità sia consultata nel caso esistano rischi elevati per la libertà e la dignità delle persone.

Il problema fondamentale del riconoscimento facciale oggi in voga in smartphone e dispositivi elettronici è che, a differenza di una password che può essere cambiata se è stata rubata, i dati biometrici non possono essere modificati. Se cadono nelle mani sbagliate, quelle mani potranno accedere a tutti i nostri account. Allarmanti, i test condotti da un team di ricercatori in negozi asiatici utilizzando con successo maschere di lattice in 3D per ingannare i sistemi di pagamento AliPay e WeChat, o nell'aeroporto di Schiphol, Paesi Bassi, dove sono riusciti a ingannare i controlli con una foto sul display del telefono. Il punto è che certe tecnologie si possono usare, certo, ma a condizione che si riescano a garantire adeguati livelli di sicurezza.

In conclusione, il trattamento dei dati biometrici comporta rischi importanti, aprendo il campo a una nuova disciplina, quella dell'etica applicata all'intelligenza artificiale, che mira a non perdere mai di vista la dignità delle persone.




CONDIVIDI QUESTA PAGINA!