GUARDA QUIhttps://www.accademiaitalianaprivacy.it/assets/images/immagineFB.jpg
giovedì 5 marzo 2026
non è la granata, è il manico. di Alessandro Papini
C'è una critica che circola con crescente insistenza negli ambienti legali e professionali italiani. La si sente nei convegni, la si legge nei post LinkedIn di avvocati e consulenti, la si trova persino in alcune sentenze di merito: "L'intelligenza artificiale inventa sentenze, cita casi inesistenti, allucinata e inaffidabile."
È una critica che contiene un granello di verità e un oceano di malafede intellettuale.
Perché sì , l'AI può produrre risposte imprecise, può citare giurisprudenza inesistente, può costruire ragionamenti apparentemente solidi su fondamenta di sabbia. È un fenomeno reale, documentato, che ha già causato danni concreti ; su tutti, il celebre caso dell'avvocato americano che ha depositato in tribunale sei precedenti giurisprudenziali inventati di sana pianta da ChatGPT, senza verificarne l'esistenza.
Ma quello che i critici sistematicamente omettono di dire è la parte più importante della storia: quell'avvocato aveva chiesto all'AI di trovare sentenze favorevoli alla sua tesi, senza alcuna istruzione di verifica, senza fonti, senza vincoli. Aveva usato uno strumento potentissimo come se fosse Google, aspettandosi risultati certi da uno strumento che per sua natura ragiona in termini probabilistici.
Non è colpa della granata. È colpa di chi non sa come tenerla in mano.
I modelli linguistici di nuova generazione non cercano informazioni. Non hanno un motore di ricerca interno. Non consultano banche dati giuridiche in tempo reale. Quello che fanno, e lo fanno in modo straordinario, è ragionare sul linguaggio, costruire connessioni tra concetti, sintetizzare, analizzare, argomentare.
Quando chiedi a un modello AI "trovami sentenze sulla responsabilità del datore di lavoro in caso di infortunio" senza ulteriori istruzioni, stai chiedendo a uno strumento probabilistico di produrre testo coerente con quella richiesta. E lui lo fa producendo testo che assomiglia a citazioni giurisprudenziali reali, perché ha visto milioni di documenti legali durante il suo addestramento.
Non sta mentendo. Sta facendo esattamente quello che gli hai chiesto: produrre testo pertinente. Il problema è che tu volevi fatti verificati, e lui ti ha dato probabilità statisticamente coerenti.
La differenza è enorme. Ed è tutta nel prompt.
Un professionista che usa l'AI con un prompt generico e superficiale ottiene risposte generiche e superficiali. Questa non è una critica all'AI — è una legge fisica della comunicazione. Vale per i collaboratori umani, vale per i motori di ricerca, vale a maggior ragione per i modelli linguistici.
La differenza tra un prompt mediocre e un prompt professionale è la differenza tra uno strumento inutile e uno strumento trasformativo.
Un prompt mediocre: "Dimmi cosa dice la giurisprudenza sul trattamento dei dati sanitari."
Un prompt professionale: "Analizza il quadro normativo italiano sul trattamento dei dati sanitari ai sensi del GDPR e del D.Lgs. 196/2003 come modificato dal D.Lgs. 101/2018. Per ogni affermazione che fai, indica se si tratta di norma positiva citando l'articolo specifico, di orientamento del Garante indicando il provvedimento, o di tua elaborazione interpretativa. Segnala esplicitamente le aree di incertezza o contrasto interpretativo. Non citare giurisprudenza a meno che tu non sia certo della sua esistenza — in caso di dubbio, indica che la verifica va effettuata su banche dati ufficiali."
Il secondo prompt non produce allucinazioni. Produce un'analisi strutturata, trasparente sui propri limiti, verificabile. Produce esattamente quello di cui un professionista ha bisogno come punto di partenza, non come punto di arrivo.
Perché questo è il secondo punto che i critici sistematicamente ignorano: l'AI non è il prodotto finale. È il collaboratore con cui ragioni.
C'è qualcosa di profondamente sbagliato nel modo in cui una parte della classe professionale italiana usa le allucinazioni dell'AI come argomento per liquidare l'intera tecnologia.
È sbagliato perché selettivo. Gli stessi professionisti che citano il caso dell'avvocato americano non citano i migliaia di studi legali nel mondo che usano AI avanzata ogni giorno per contrattualistica, due diligence, analisi normativa con risultati eccellenti e verificati.
È sbagliato perché analfabeta. Criticare l'AI per le allucinazioni senza aver mai studiato come funziona un modello linguistico, senza aver mai letto una riga su prompt engineering, senza aver mai usato professionalmente uno strumento come Claude Pro, GPT-4 o Gemini Advanced equivale a criticare la chirurgia robotica senza aver mai visto una sala operatoria.
Ed è sbagliato perché interessato. La resistenza di alcune categorie professionali all'AI non nasce da preoccupazioni e sulla qualità dell'output. Nasce dalla paura, comprensibile ma non ammissibile come argomento intellettuale, che uno strumento accessibile a tutti eroda il valore di competenze acquisite in anni di studio e pratica.
Permettetemi una provocazione diretta, rivolta a chi usa le allucinazioni dell'AI come scudo culturale.
Quando un avvocato sentenzia che "l'AI è inaffidabile per il diritto" sulla base di un uso superficiale e non professionale della tecnologia, sta facendo esattamente quello che farei io, informatico, esperto di privacy e sicurezza se mi mettessi una toga entrassi in un'aula di tribunale e cominciassi a difendere un imputato citando articoli di codice che ho letto su Wikipedia la settimana prima.
Sarebbe pericoloso. Sarebbe irresponsabile. E sarebbe, soprattutto, una dimostrazione di incompetenza mascherata da coraggio.
L'AI non si valuta usandola male e poi criticando i risultati. Si valuta imparando a usarla bene con la stessa serietà con cui un avvocato studia anni prima di mettere piede in un'aula.
Non sto dicendo che l'AI sia infallibile. Non lo è, e non lo sarà mai nel senso in cui una banca dati giuridica verificata è infallibile. Sto dicendo che un uso professionale dell'AI prevede:
Primo usarla per ragionare e analizzare, non per recuperare fatti. I fatti si verificano sempre su fonti primarie.
Secondo costruire prompt precisi, vincolanti, che istruiscano il modello a segnalare le proprie incertezze invece di mascherarle.
Terzo trattare l'output come una prima bozza intelligente, non come un parere definitivo. L'AI lavora per te, non al posto tuo.
Quarto aggiornarsi. I modelli di oggi sono radicalmente diversi da quelli di due anni fa. Chi critica l'AI del 2025 usando esempi del 2022 sta combattendo una guerra con mappe obsolete.
Le allucinazioni dell'AI sono reali. Sono anche, nella stragrande maggioranza dei casi, il risultato diretto di un uso superficiale e non professionale dello strumento.
L'AI non è una fonte. È un interlocutore straordinariamente capace, che ragiona meglio di qualsiasi collaboratore umano su grandi volumi di testo a condizione che tu sappia come parlargli.
Chi non lo sa, e sceglie di non impararlo, ha tutto il diritto di non usarla. Ma non ha il diritto di presentare la propria ignoranza come una critica tecnologica.
Il problema, quasi sempre, non è la granata.
È il manico.
E come direbbe il grande Ettore Boirzacchini:
Dammi retta, palle!
Alessandro Papini
CONDIVIDI QUESTA PAGINA!