GUARDA QUIhttps://accademiaitalianaprivacy.it/areaprivata/foto/2016/01.jpg

Dettaglio news
L’intelligenza artificiale entra in classe


giovedì 27 novembre 2025
di Avv. Gianni Dell’Aiuto



Guardiamo una qualsiasi aula di una scuola di oggi: è sufficiente per capire che l’educazione non è più soltanto questione di lavagne e quaderni. Le piattaforme digitali, i registri elettronici, i software di apprendimento adattivo e, non certo inverosimile, anche qualche sistema di riconoscimento facciale negli ingressi fanno ormai parte della quotidianità scolastica. L’intelligenza artificiale si sta insinuando silenziosamente nel cuore della formazione, promettendo personalizzazione, efficienza, sicurezza. Ma dietro questa promessa si nasconde un rischio di sorveglianza sistemica che tocca la sfera più protetta del diritto europeo: quella dei minori.

 

La sfera digitale del minore: l'erosione dei confini tra consenso e sorveglianza

Molte scuole italiane utilizzano già piattaforme di e-learning e strumenti di valutazione automatica. Esistono software che analizzano l’attenzione degli studenti durante le lezioni online o i test. In altre, il riconoscimento facciale viene proposto per la gestione degli accessi o per prevenire l’assenteismo. In tutti questi casi, dati biometrici, comportamentali e scolastici confluiscono in sistemi che apprendono, registrano, memorizzano e correlano. Si parla spesso di intelligenza educativa, ma non di "protezione educativa

Il principio cardine del GDPR è chiaro: i minori meritano una protezione specifica (considerando 38). Gli articoli 8 e 9 stabiliscono che il consenso al trattamento dei dati deve essere espresso dai genitori, e che i dati che rivelano lo stato di salute, le convinzioni religiose o le abitudini di vita non possono essere trattati senza una base giuridica adeguata. Tuttavia, la realtà delle aule digitali mostra una costante erosione di questi confini. I genitori raramente comprendono cosa accade ai dati raccolti dalle piattaforme scolastiche, e spesso il consenso si riduce a una casella selezionata in fretta a inizio anno.

Ancora più problematica è la profilazione. Alcuni sistemi di apprendimento adattivo costruiscono per ciascun alunno un profilo cognitivo: tempi di risposta, errori ricorrenti, tendenza alla distrazione, livello di motivazione. Questi dati vengono utilizzati per “personalizzare” il percorso educativo. Ma chi controlla come questi profili vengono formati? Chi decide quali categorie usa l’algoritmo per definire l’attenzione o l’intelligenza? E soprattutto, quanto resteranno registrati quei profili quando il minore sarà diventato adulto?

 

Diritto all'errore e memoria algoritmica: le nuove sfide etiche enormative

Siamo ormai lontani dalla scuola di De Amicis, dove l’educazione era anche sentimento, relazione, errore. Oggi la lezione rischia di essere valutata da un algoritmo che misura la concentrazione attraverso il movimento degli occhi o la velocità di digitazione. E non è scenario da Grande Fratello. L’AI educativa, se non regolata, può creare una “memoria algoritmica” dello studente: una sorta di ombra digitale che lo segue anche oltre il ciclo di studi. È l’esatto contrario del diritto all’errore e all’oblio formativo che ogni giovane dovrebbe avere. E un pericolo per lo sviluppo di quella che è definita già come generazione copia-incolla.

L’articolo 5 del GDPR impone principi di minimizzazione e limitazione della finalità: raccogliere solo i dati necessari e usarli solo per lo scopo dichiarato. In ambito scolastico, ciò dovrebbe significare eliminare ogni raccolta non indispensabile alla didattica e impedire che dati scolastici diventino materiale per addestrare algoritmi commerciali. 

L’AI Act, in via di applicazione, classifica i sistemi di AI destinati all’educazione come “ad alto rischio”, imponendo trasparenza, tracciabilità e supervisione umana. Ma la consapevolezza di questa categoria di rischio è ancora scarsa nei dirigenti scolastici e nei fornitori di software. Il rischio più sottile non è tanto la violazione di un dato, quanto la formazione di un’abitudine culturale per cui l’osservazione costante diventa normalità. Un bambino che cresce in un ambiente dove ogni movimento, parola o sguardo è registrato impara presto che la privacy è una concessione, non un diritto.

E infine, dovremmo chiederci sempre chi c’è dietro i sistemi di intelligenza artificiale che entrano nelle scuole. Chi li ha programmati, con quali dati, per quali fini economici o educativi. La tecnologia non è mai neutra, e dietro ogni algoritmo c’è sempre un interesse, un modello culturale, una visione del mondo che rischia di “educare” più di quanto facciano gli insegnanti.

La scuola dovrebbe restare il luogo in cui si insegna a pensare, non quello in cui si viene pensati da un algoritmo.




CONDIVIDI QUESTA PAGINA!