GUARDA QUIhttps://accademiaitalianaprivacy.it/areaprivata/foto/1968/01.jpg
giovedì 29 maggio 2025
Di Avv. Gianni Dell’Aiuto
Due avvocati, Tizio e Caio, sono abbonati allo stesso servizio di intelligenza artificiale per supportare il loro lavoro. Oppure utilizzano due soluzioni diverse supportate dallo stesso provider. L’Avvocato Tizio, alle prese con una vicenda che vede contrapposti il suo cliente Rossi e il signor Bianchi, decide di chiedere all’AI un parere e una bozza di atto. Inserisce nomi, indirizzi, dati e riferimenti precisi. Qualche giorno dopo, l’Avvocato Caio sottopone al proprio sistema un quesito simile. L’AI risponde citando esplicitamente il caso “Rossi contro Bianchi”, e da lì prende spunto per fornire una proposta. Apparentemente un successo. In realtà, un incidente. Grave.
È stata, infatti, aperta una falla silenziosa nella riservatezza, uno scivolamento che chiama in causa la natura stessa della professione forense. Nessuno vieta all’avvocato di utilizzare strumenti di supporto, sarebbe anzi irragionevole pensare che si possa fare a meno della tecnologia in uno studio moderno. Ma tra l’usare uno strumento e fidarsi ciecamente di una macchina pensante che apprende dai nostri input ce ne passa.
Che ne pensi? > L’illusione dell’AI: l’errore di chi guarda ai sistemi e dimentica i dati
La questione, infatti, non si risolve con un banale “non inserire dati sensibili”, perché nella realtà quotidiana dell’attività legale i confini tra informazione anonima e identificabile si fanno sfumati. Non è necessario riportare un codice fiscale o una fotografia per violare la riservatezza: basta che il sistema sia in grado di collegare i puntini; e lo farà.
A questo punto, la domanda vera non è se sia rischioso usare l’intelligenza artificiale. Lo è. La domanda è: con chi stiamo davvero parlando quando interagiamo con un sistema di AI? Perché il sistema non è solo codice. È un’infrastruttura gestita da sviluppatori, da aziende, da ingegneri che decidono cosa viene salvato, cosa viene dimenticato, cosa viene usato per “addestrare” la macchina. E come le macchine si auto sviluppano da sole!
Il risultato è che l’informazione che noi riteniamo confidenziale diventa, anche solo potenzialmente, materia condivisa. E a condividerla non è un soggetto neutro, ma una mente artificiale programmata per rielaborare e collegare tutto ciò che ha appreso.
Potrebbe interessarti > Data ethics: una nuova frontiera ancora sconosciuta
In questo scenario, la responsabilità non si può scaricare su chi usa la tecnologia. L’avvocato ha il dovere di adottare strumenti adatti al proprio ruolo, ma chi costruisce questi strumenti ha l’obbligo di utilizzare le informazioni trattate nel rispetto del GDPR. Ed i produttori e gli sviluppatori di AI destinata all’ambito giuridico non possono ignorare che stanno lavorando su materiale infiammabile: dati personali, strategie difensive, accuse, confessioni, affari riservati. Non sono bit inerti, ma parole pesanti, spesso irreversibili.
Chi offre servizi di AI rivolti agli studi legali deve quindi rispondere a una sola, semplice domanda: il vostro sistema è progettato per non ricordare? Perché in assenza di una garanzia esplicita, ogni utilizzo diventa un atto di fiducia cieca, e la fiducia cieca, in campo legale, è una contraddizione in termini. Non c’è bisogno che l’intelligenza artificiale sia malintenzionata. Basta che faccia bene il suo lavoro: collegare, ragionare, proporre soluzioni. È proprio questo, il problema.
E che cosa potrebbe dire un cliente all’avvocato, che dovrebbe usa i dati solo per l’esercizio del proprio mandato ma, ancorché per farlo, li inserisce in un sistema che li sottopone a trattamenti automatizzati, analisi invasive, profilazione.
È sufficiente scriverlo nell’informativa Privacy che facciamo sottoscrivere? Forse, ma riflettere policy specifiche potrebbe essere più che una buona idea.
Approfondisci > L'intelligenza artificiale: sfide etiche
Un avvocato, per definizione, lavora nel silenzio e nella tutela. Se quello che scrive diventa il bagaglio di una macchina accessibile a terzi, anche in forma mascherata, è come se lasciasse la porta dello studio aperta e le sue pratiche sul tavolo. Nessuna intelligenza, per quanto artificiale, può giustificare l’abbandono del principio di riservatezza.
Nel futuro prossimo, chi si occupa di tecnologia legale dovrà decidere se stare dalla parte del codice o dalla parte della coscienza. Perché il problema non è il progresso. Il problema è dimenticare che anche nel digitale, certi confini non si attraversano. Si rispettano. E basta.E l’avvocato è il primo garante della riservatezza dei dati dei suoi clienti.
giovedì 22 maggio 2025
CONDIVIDI QUESTA PAGINA!