GUARDA QUIhttps://accademiaitalianaprivacy.it/areaprivata/foto/2005/01.jpg
giovedì 23 ottobre 2025
Di Avv. Gianni Dell'Aiuto
Una volta avanzamenti di carriera, benefits e promozioni erano legati a dati oggettivi: numeri di vendita, fatturati, risultati di squadra. Criteri discutibili forse, ma visibili, comprensibili e contestabili. Oggi invece in molti settori – dalla logistica ai servizi, fino agli uffici – sempre più decisioni cruciali vengono prese da algoritmi.
Turni di lavoro, valutazioni di performance, perfino licenziamenti e assunzioni sono gestiti da software che operano in silenzio, opachi per i lavoratori e spesso anche per i dirigenti che li adottano. E non è infrequente che nulla ne sappiano.
Il problema non è solo tecnico. È un nodo sociale e giuridico. Gli algoritmi portano con sé un’apparente neutralità che nasconde scelte politiche e aziendali tradotte in formule matematiche. Il GDPR lo dice chiaramente: nessuno dovrebbe essere sottoposto a decisioni esclusivamente automatizzate senza possibilità di intervento umano.
Eppure, nella pratica quotidiana questo confine è spesso aggirato. Con l’AI Act, questi sistemi rientrano tra gli usi ad alto rischio, ma l’illusione dell’oggettività resta forte. In realtà le macchine non eliminano i bias: li rendono invisibili, spostando la responsabilità su un’entità che non risponde davanti a nessuno.
Potrebbe interessarti > La portata dell'AI Act
Ed è qui che si apre la questione centrale: come riportare equilibrio? Non basta vietare o minacciare sanzioni. Serve un metodo che consenta di misurare e valutare gli effetti degli algoritmi, renderli trasparenti, verificarne l’impatto non solo sull’efficienza produttiva ma anche sull’equità sociale.
La Cybermetrica è il metodo corretto nel rispetto delle norme per usare i dati. Va spiegata, applicata, customizzata alle aziende, perché non è un modello universale ma una chiave di lettura che tiene insieme diritto, tecnologia e organizzazione. Permette di capire non solo chi guadagna da una scelta automatizzata, ma anche chi ne viene penalizzato e con quali costi economici e sociali.
Se adottata con serietà, la Cybermetrica diventa un ponte tra tecnologia e responsabilità, restituendo al management e ai giuristi d’impresa la possibilità di leggere le dinamiche che l’algoritmo tende a nascondere. Non sostituisce la macchina, ma la controlla; non elimina le distorsioni, ma le smaschera. È l’unico strumento che consente di trasformare la potenza dei dati in un alleato invece che in un padrone.
La vera questione non è se vogliamo o no gli algoritmi nel lavoro: ormai ci sono e resteranno. La domanda è se vogliamo subirli come una nuova forma di potere invisibile o governarli come strumenti al servizio delle persone. Intanto, come premessa, occorre ricordare che esiste già un quadro normativo che non può essere ignorato. GDPR, AI Act e le altre regole europee sulla trasparenza e sulla responsabilità non sono orpelli burocratici: sono la base di buon senso su cui costruire qualsiasi utilizzo dell’intelligenza artificiale in azienda.
Significa garantire informative chiare ai lavoratori, prevedere controlli interni sugli algoritmi, assicurare che dietro ogni decisione ci sia la possibilità di un intervento umano. Non applicare queste regole significa non solo violare la legge, ma anche rinunciare a un principio elementare di correttezza verso chi lavora. Altro punto di buon senso è la responsabilità dell’impresa. Non basta dire “così fa il software” per lavarsene le mani.
Ogni algoritmo riflette le scelte di chi lo ha adottato e personalizzato, ed è quindi l’azienda che deve rispondere di fronte ai dipendenti e, se necessario, alle autorità. Accettare questa responsabilità è la premessa per costruire fiducia. Un lavoratore può tollerare decisioni dure, ma non decisioni oscure. La trasparenza, prima ancora che un obbligo di legge, è un dovere etico e un vantaggio competitivo: senza di essa, la tecnologia non porta efficienza ma conflitto.
La Cybermetrica è il passo necessario per non lasciare che il Grande Fratello della produttività decida al posto nostro, trasformando i lavoratori in numeri e le aziende in calcolatrici senz’anima. E se usati senza regole, questi sistemi non solo cancellano la dignità delle persone, ma violano anche il GDPR, l’AI Act e le altre norme a tutela della privacy e della protezione dei dati.
lunedì 20 ottobre 2025
giovedì 16 ottobre 2025
lunedì 13 ottobre 2025
CONDIVIDI QUESTA PAGINA!