GUARDA QUIhttps://www.accademiaitalianaprivacy.it/areaprivata/foto/1843/01.jpg
giovedì 17 ottobre 2024
Di Gianni Dell'Aiuto
Sono sotto gli occhi di tutti noi gli sviluppi a ritmi decisamente serrati dell’Intelligenza Artificiale ma, in particolare da quando abbiamo avuto modo di “giocarci” ogni giorno usando anche le più semplici applicazioni, possiamo renderci conto delle implicazioni e della portata di questo strumento. Indubbia la sua utilità ma, allo stesso modo, sono evidenti le implicazioni che derivano dal suo uso o, ancora di più, da forme di abuso.
Ecco che si spiega il perché l’Unione Europea, prima organizzazione a farlo, abbia voluto porre dei paletti a questo sistema.
Era del resto evidente l' importanza di introdurre forme di regolamentazione per questa tecnologia, dato che, per sua natura (ovvero la capacità di prendere decisioni ed apprendere autonomamente), porta con sé implicazioni etiche importanti e delicate che toccano direttamente i diritti e i dati di tutti noi. Fin da aprile 2021, l' Unione Europea stava lavorando al cosiddetto AI Act, un primo quadro normativo sull'Intelligenza Artificiale, che è stato ufficialmente approvato il 13 marzo 2024 e per cui si attende la pubblicazione in Gazzetta Ufficiale e delle modalità per la sua piena operatività che, per alcuni aspetti, sarà abbastanza rapida.
L'obiettivo principale di questo atto è assicurare che i sistemi AI utilizzati all' interno dell' Unione siano pienamente conformi ai principi, ai valori e ai diritti fondamentali dell' UE, garantendo il controllo umano, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale ed ambientale. In questo rivediamo le stesse ragioni di fondo che hanno spinto all’approvazione del GDPR che, anche su questo delicato argomento, si pone come una linea guida imprescindibile.
Pertanto, al fine di fronteggiare le implicazioni che scaturiscono dall’utilizzo dell’IA, l'UE ha deciso di lavorare alla creazione del primo regolamento al mondo in materia.
Le applicazioni AI stanno diventando sempre più avanzate, con capacità di analisi in tempo reale e la capacità di "decidere" azioni basate sui dati disponibili. È proprio questa capacità decisionale che rende necessarie valutazioni etiche approfondite. Se un' applicazione AI prende una decisione sbagliata o dannosa per un essere umano, chi ne sarà responsabile? Ma, prima ancora, la domanda da porsi è come si giunge a questi meccanismi decisionali e sulla base di quali dati.
E questo è solo l' inizio: le norme che regolano l' uso delle tecnologie devono trovare un equilibrio tra la protezione della privacy e la sicurezza dei cittadini e le opportunità di innovazione offerte dalle applicazioni AI.
L' AI Act individua quindi quattro livelli di rischio per le applicazioni AI, che dovranno pertanto essere sottoposte a differenti gradi di monitoraggio e controllo.
I livelli di rischio vanno dal rischio inaccettabile, dove sono strettamente vietate le applicazioni che utilizzano tecniche subliminali o sistemi di punteggio sociale, al rischio minimo, che comprende applicazioni ampiamente diffuse come i filtri antispam. Inoltre, il regolamento assegna responsabilità primarie ai fornitori di sistemi AI, ma anche ad altri attori nell' ecosistema come distributori, importatori, utenti e terze parti.
Questa regolamentazione delle applicazioni AI rappresenta un passo fondamentale verso un utilizzo responsabile e sicuro di una tecnologia potente e ancora poco conosciuta dai più, cercando di offrire garanzie proprio perché questo strumento venga utilizzato in maniera sicura, affidabile e nel rispetto dei valori umani.
Questo obiettivo richiede un impegno costante da parte di tutti gli attori coinvolti, ma può contribuire a creare un ambiente digitale più sicuro ed etico per tutti.
Come accadde per il GDPR la definitiva operatività di questa norma è dilatata nel tempo e, si confida, le aziende si adegueranno con maggiore celerità di quanto non lo abbiano fatto per il regolamento sulla privacy. Anche qui le conseguenze sono salate sanzioni.
UN’ultima notazione corre obbligatoriamente per la portata globale dell’AI Act. Anche le aziende non europee che usano e sviluppano programmi connessi all’Intelligenza Artificiale dovranno, infatti, adeguarsi alla nuova normativa per non perdere il mercato europeo.
giovedì 5 dicembre 2024
Leggi tutto...lunedì 2 dicembre 2024
Leggi tutto...lunedì 25 novembre 2024
Leggi tutto...
CONDIVIDI QUESTA PAGINA!