MARZO 2025
Entrata in vigore del Regolamento (UE) 2024/1689. Cosa succede al 2 febbraio 2025?
L’AI Act è entrato in vigore il 2 agosto del 2024 e sarà pienamente applicabile dal 2 agosto del 2026. L’applicazione di alcune parti del Regolamento è però anticipata al 2025: le disposizioni di carattere generale (capi I e II) sono applicabili dal 2 febbraio 2025, mentre le norme su governance, quelle che introducono obblighi per fornitori di modelli di IA per finalità generali e sanzioni, dal 2 agosto 2025.
A partire dal2 febbraio 2025, le società e le organizzazioni che operano nel settore dell’intelligenza artificiale devono conformarsi a due obblighi principali.
Divieto di pratiche di intelligenza artificiale a rischio inaccettabile.
È risaputo che il Regolamento ha adottato un risk-based approach, un approccio fondato sul rischio, andando a creare una “piramide” dei singoli sistemi di intelligenza artificiale.
Applicazioni a rischio minimo, come ad esempio i filtri anti-spam, che non sono soggette a regole specifiche; applicazioni a rischio limitato, come ad esempio i chatbot, che prevedono obblighi di trasparenza; applicazioni ad alto rischio (es. quelle usate in sanità, nella giustizia, nella classificazione dei lavoratori), che possono avere un impatto significativo sui diritti fondamentali e sono soggette a regole severe, con obblighi di trasparenza, valutazioni di conformità e monitoraggio umano.
Infine, l’AI Act identifica specifiche pratiche di intelligenza artificiale a rischio inaccettabile, vietandone l’uso, appunto, dallo scorso 2 febbraio.
Tra queste pratiche rientrano:
a) Tecniche di manipolazione subliminale o ingannevole: Sistemi che influenzano il comportamento degli individui senza la loro consapevolezza, sfruttando vulnerabilità cognitive o psicologiche.
b) Sfruttamento delle vulnerabilità di gruppi specifici: Applicazioni che approfittano delle vulnerabilità di gruppi particolarmente vulnerabili, come minori o persone con disabilità, per influenzare il loro comportamento in modo dannoso.
c) Sistemi di social scoring: Valutazioni sistematiche della reputazione o dell’affidabilità delle persone basate sul loro comportamento sociale o sulle caratteristiche personali, che possono portare a discriminazioni ingiustificate.
d) Identificazione biometrica remota in tempo reale in spazi pubblici: L’uso di sistemi di riconoscimento facciale o altre tecnologie biometriche per identificare persone in tempo reale in luoghi pubblici, salvo specifiche eccezioni.
e) Riconoscimento delle emozioni in ambiti sensibili: Applicazioni che cercano di determinare le emozioni degli individui in contesti come il lavoro o l’istruzione, dove ciò potrebbe portare a discriminazioni o violazioni della privacy.
f) Creazione o ampliamento di banche dati di riconoscimento facciale tramite scraping non mirato: La raccolta massiva di immagini o dati biometrici da fonti online senza il consenso degli individui coinvolti, per creare database utilizzati in sistemi di riconoscimento facciale.
Dunque, i soggetti che utilizzano o sviluppano sistemi di IA devono garantire che nessuna di queste pratiche vietate sia stata sviluppata nei loro prodotti o servizi.
La violazione di questi divieti può comportare sanzioni significative, che possono raggiungere i 35 milioni di euro o il 7% del fatturato annuo globale della società, a seconda di quale importo sia maggiore.
Alfabetizzazione
L’art. 4 dell’AI Act introduce l’obbligo per società e pubbliche amministrazioni di garantire che il proprio personale disponga di una conoscenza adeguata sull’intelligenza artificiale. Si tratta, verosimilmente, del primo obbligo “massificato”, nel senso che trova applicazione in maniera trasversale anche ai soggetti che operano fuori dal settore tecnologico, ma che utilizzano le tecnologie di IA.
Naturalmente, il primo adempimento riguarda la formazione, con l’adozione di programmi per assicurare che i dipendenti comprendano le opportunità e i rischi associati all’IA: una scelta legislativa che non può che essere salutata con favore, nella consapevolezza che la conoscenza del funzionamento dei sistemi e dei modelli, e dei rischi e delle opportunità ad essi associati, è il primo strumento di compliance.
Allo stesso modo, questi soggetti sono chiamati a dotarsi di linee guida interne che definiscano l’uso responsabile dell’IA all’interno dell’organizzazione, assicurandosi altresì che il personale sia informato sui potenziali impatti etici e legali dell’uso dell’IA.
Chi sono i destinatari degli obblighi?
Si è detto che l’obbligo di alfabetizzazione riguarda tutti i soggetti che utilizzano sistemi e modelli di intelligenza artificiale.
Per quanto riguarda i fornitori, invece, l’applicazione del Regolamento abbraccia anche i soggetti non stabiliti nell’UE, atteso che l’ambito di applicazione oggettiva del Regolamento coinvolge anche scenari in cui l’output prodotto dai sistemi di IA è utilizzato all’interno del territorio europeo, seppur prodotto al di fuori del suo territorio.
Prossime scadenze e introduzione di nuovi obblighi
L’AI Act prevede un’adozione graduale delle sue disposizioni, con diverse scadenze future le cui principali sono:
Agosto 2025
Entreranno in vigore le norme sulla governance dell’IA e gli obblighi specifici per i modelli di IA di uso generale. I destinatari della normativa dovranno:
a) mantenere documentazione dettagliata sui test e sullo sviluppo dei loro sistemi di IA.
b) seguire procedure standardizzate per garantire la sicurezza dei sistemi di IA durante tutto il loro ciclo di vita.
c) effettuare valutazioni periodiche per assicurarsi che i sistemi di IA rispettino le normative vigenti.
Il mancato rispetto di questi obblighi potrebbe comportare sanzioni significative.
Agosto 2026
Applicazione completa dell’AI Act per tutti i sistemi di IA, inclusi quelli classificati come ad alto rischio.
In questo caso occorrerà adottare misure aggiuntive per i sistemi di IA considerati ad alto rischio, come valutazioni di impatto, che impongono di condurre analisi approfondite per identificare e mitigare i potenziali rischi associati all’uso dell’IA, ed effettuare un monitoraggio continuo, per stabilire processi per il monitoraggio costante delle prestazioni dei sistemi di IA e per l’identificazione tempestiva di eventuali anomalie.
Pseudonimizzazione: le Linee Guida 1/2025 dell’EDPB. Il Comitato Europeo per la Protezione dei Dati (European Data Protection Board -EDPB) ha pubblicato il 16 gennaio le Linee Guida 01/2025 sulla pseudonimizzazione, soggette a consultazione pubblica fino al 28 febbraio, in cui fornisce un quadro di riferimento dettagliato sui vantaggi e l’applicabilità associati alla pseudonimizzazione.
Tale misura di garanzia è stata definita per la prima volta dal Regolamento UE 679/2016 (GDPR) all’art.4 punto 5) come la procedura mediante la quale i dati “non possano più essere attribuiti a un interessato specifico senza l’utilizzo di informazioni aggiuntive, a condizione che tali informazioni aggiuntive siano conservate separatamente e soggette a misure tecniche e organizzative intese a garantire che tali dati personali non siano attribuiti a una persona fisica identificata o identificabile”.
L’Autorità italiana ha partecipato alla stesura del documento
I dati pseudonimizzati sono sempre dati personali. È quanto affermano le Linee guida sulla pseudonimizzazione adottate nel corso dell’ultima plenaria del Comitato europeo per la protezione dei dati (EDPB), alla cui stesura ha partecipato il Garante privacy in qualità di co-rapporteur. Le Linee guida sono ora disponibili in consultazione pubblica fino al 28 febbraio, al termine della quale verranno adottate in versione definitiva.
In base alla definizione fornita dal GDPR, la pseudonimizzazione è una misura che permette di non attribuire i dati personali a uno specifico interessato senza l’utilizzo di informazioni aggiuntive, a condizione che tali informazioni aggiuntive siano conservate separatamente e soggette a misure di sicurezza tecniche e organizzative.
L’EDPB chiarisce che i dati pseudonimizzati sono sempre dati personali, anche se le informazioni necessarie per identificare una persona sono tenute separate. Infatti, se i dati possono essere ricondotti a persone fisiche dal titolare del trattamento o da altri, rimangono dati personali e sono dunque soggetti agli obblighi dettati dal GDPR.
Le linee guida indicano inoltre ambito e vantaggi della pseudonimizzazione: si tratta di una misura di riduzione del rischio e di efficace applicazione dei principi della protezione dei dati secondo il paradigma della privacy by design.
Il documento del Board, inoltre, esamina le misure tecniche e le salvaguardie, nell’utilizzo della pseudonimizzazione, per assicurare la confidenzialità delle informazioni ed evitare l’identificazione non autorizzata degli interessati. La pseudonimizzazione – evidenzia ancora il Comitato europeo – facilita l’utilizzo del legittimo interesse come base giuridica per il trattamento, a condizione che siano soddisfatti tutti gli altri requisiti del GDPR e la verifica della compatibilità con la finalità originaria di un ulteriore trattamento.
Il Social Scoring: una pratica illegale?
Il sistema di social scoring valuta il comportamento individuale tramite algoritmi di intelligenza artificiale, premiando o penalizzando i cittadini in base alle loro azioni. Sebbene tale sistema sia stato vietato dal Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024 (“AI Act”) in caso di trattamenti ingiustificati o sfavorevoli, non esclude esplicitamente l’uso per finalità premiali, generando interrogativi etici e legali.
Al contrario dell’Unione Europea, in Cina, il social scoring è una realtà consolidata che influenza l’accesso a servizi e benefici attraverso sistemi pubblici e privati. Tuttavia, queste pratiche sollevano dubbi in materia di protezione dati personali, trasparenza e diritti del cittadino. Il presente articolo ha l’obiettivo di analizzare i rischi e le lacune normative, ponendo l’accento sull’importanza di bilanciare incentivi sociali e diritti fondamentali.
Che cosa è il social scoring?
Il social scoring o social credit system si riferisce alla pratica di valutazione del comportamento sociale da parte di algoritmi di intelligenza artificiale (IA) che, attraverso un sistema premiale e/o sanzionatorio, sulla base delle azioni poste in essere da parte dei cittadini, consente di assegnare o rimuovere punti (c.d. credito sociale). A ciascun cittadino viene inizialmente assegnato un punteggio predefinito che può essere soggetto a cambiamenti in base alle azioni che svolge durante il corso della vita quotidiana che possono essere considerate come negative o positive.
Dunque, tenere comportamenti contrari alla normativa o in generale alle regole del vivere comune, potrebbe incidere negativamente sul punteggio assegnato, ad esempio: attraversare un semaforo rosso o gettare una carta per terra sono azioni che possono comportare una riduzione dei punti attribuiti. Al contrario, sono considerate azioni positive quelle che contribuiscono a un aumento del punteggio sociale, come, ad esempio: avere voti eccellenti a scuola o all’università, rispettare le norme sociali senza commettere infrazioni per un determinato periodo e dimostrare una costante diligenza e impegno sul posto di lavoro.
Il sistema di social scoring dovrebbe mirare a promuovere comportamenti benefici per l’individuo e la comunità, incoraggiando il rispetto delle leggi e delle norme sociali, così come il perseguimento dell’eccellenza accademica e professionale.
Tuttavia, i sistemi di social scoring gestiti da algoritmi di intelligenza artificiale, valutando i comportamenti delle persone e/o di gruppi di persone sulla base di parametri che potrebbero essere non rilevanti o equi e possono determinare gravi trattamenti pregiudizievoli.
Inoltre, per quanto tale sistema di social scoring sembra essere lontano dal nostro immaginario, in realtà, come vedremo nei successivi paragrafi è più vicino a noi di quanto pensiamo.
Il Legislatore ha previsto che non è possibile effettuare il social scoring per porre in essere un trattamento pregiudizievole o sfavorevoli nei confronti di persone e/o di un gruppo, ma non ha previsto il contrario. Quindi, va da sé, che leggendo la su riportata norma in chiave litotica, è possibile compiere l’attività di social scoring per porre in essere un trattamento premiale e/o favorevole.
Inoltre, è doveroso altresì interrogarsi se un sistema che premia e/o favorisce determinate persone non ne pregiudichi e/o sfavorisca indirettamente altre. Si pensi, ad esempio, a un sistema che prevede l’assegnazione di una promozione solo ai lavoratori che sono sempre stati puntuali a lavori. È evidente che un sistema premiale favorisce determinati soggetti e ne sfavorisce altri.
Con tale osservazione, non si vuole contestare la correttezza di un eventuale sistema premiale fondato sul social scoring, ma, al contrario, si vuole evidenziare che il Legislatore non ha vietato tale eventualità, forse anche in modo volontario.
Inoltre, anche il considerando 31 dell’AI ACT non sembra vietare i sistemi di social scoring per porre in essere un trattamento premiale e/o favorevole: I sistemi di IA che permettono ad attori pubblici o privati di attribuire un punteggio sociale alle persone fisiche possono portare a risultati discriminatori e all’esclusione di determinati gruppi. Possono inoltre ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia. Tali sistemi di IA valutano o classificano le persone fisiche o i gruppi di persone fisiche sulla base di vari punti di dati riguardanti il loro comportamento sociale in molteplici contesti o di caratteristiche personali o della personalità note, inferite o previste nell’arco di determinati periodi di tempo. Il punteggio sociale ottenuto da tali sistemi di IA può determinare un trattamento pregiudizievole o sfavorevole di persone fisiche o di interi gruppi in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti, o a un trattamento pregiudizievole che risulta ingiustificato o sproporzionato rispetto alla gravità del loro comportamento sociale. I sistemi di IA che comportano tali pratiche inaccettabili di punteggio aventi risultati pregiudizievoli o sfavorevoli dovrebbero pertanto essere vietati. Tale divieto non dovrebbe pregiudicare le pratiche lecite di valutazione delle persone fisiche effettuate per uno scopo specifico in conformità del diritto dell’Unione e nazionale.
L’art. 5 dell’AI ACT, letto in combinato disposto con il considerando 31, prevede che i dati raccolti su una persona e/o un gruppo di persone non possono essere poi riutilizzati in altri contesti. Per intenderci meglio, se Tizio, Caio e Sempronio hanno avuto uno pessimo percorso accademico, tali fattispecie (risultato accademico negativo) non potrà incidere su un eventuale erogazione di un mutuo da parte di un istituto bancario nei confronti dei predetti soggetti. Da tale disposto normativo, si evince, da una lettura a contrario, che l’attività di social scoring invece può essere posta in essere quando i dati di determinate persone fisiche o di interi gruppi di persone in contesti sociali sono collegati ai contesti in cui i dati sono raccolti, o quanto meno, così dovrebbe essere.
Dunque, non dovrebbe essere vietato l’uso di sistemi di intelligenza artificiale da parte delle autorità pubbliche per l’assegnazione di un punteggio per un trattamento pregiudizievole o sfavorevole nei confronti di determinate persone fisiche o di interi gruppi di persone fisiche in contesti sociali che sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti.
Per intenderci meglio, l’Autorità pubblica, ad esempio, non può escludere Tizio dall’assegnazione di un credito di imposta perché non ha avuto un percorso accademico eccellente, poiché, in questo caso i dati raccolti relativi al percorso accademico appartengono a un contesto diverso (quello fiscale); tuttavia, potrebbe precludere la partecipazione di Tizio a un concorso lavorativo a una persona che non ha avuto un comportamento esemplare a lavoro.
Il secondo punto, della lettera c) dell’art. 5 dell’AI ACT sembra voler porre rimedio nel caso in cui un trattamento sia particolarmente svantaggioso per la persona, vietando, appunto, un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di gruppi di persone che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità.
Tuttavia, il Regolamento non ci ha fornito dei criteri per definire quando un trattamento possa considerarsi pregiudizievole o sfavorevole e ingiustificato o sproporzionato. Pertanto, l’assenza di limiti chiari nella definizione dei termini relativi ai sistemi di social scoring rischia inevitabilmente di generare dubbi interpretativi, con potenziali conseguenze sia sul piano etico che su quello legale.
Telemarketing, Garante privacy: sanzione di oltre 890mila euro a fornitore luce e gas
Dati trattati a fini promozionali senza un’idonea base giuridica.
Il Garante privacy ha comminato a E.ON Energia spa una sanzione di oltre 890mila euro per trattamento illecito di dati personali a fini di telemarketing. Il procedimento trae origine dai reclami di due persone che lamentavano la ricezione di numerose chiamate indesiderate e il mancato riscontro alle richieste di esercizio dei diritti sanciti dal Regolamento.
Nel corso dell’istruttoria il Garante ha rilevato, in un caso, che i consensi rilasciati in fase di attivazione delle forniture di luce e gas, erano stati trascritti in maniera errata da un dipendente della società. Errore che ha evidenziato una duplice criticità nei meccanismi di tutela dei dati dei clienti. Da un lato, E.ON non ha introdotto misure idonee a verificare ed assicurare la corrispondenza tra i consensi resi dagli interessati e le informazioni registrate sui sistemi aziendali, ed è così incorsa nella a realizzazione di attività di telemarketing senza un’idonea base giuridica. Dall’altro, è venuta meno agli obblighi di formazione e supervisione dei soggetti incaricati delle attività di telemarketing.
Per quanto riguarda il secondo reclamo, il Garante ha invece accertato l’avvenuta realizzazione di attività di telemarketing mediante l’utilizzo di dati personali raccolti con l’ausilio di un form pubblicato su Facebook nell’ambito di una campagna cd. digital, sebbene l’interessata in questione non avesse mai attivato un account social.
Anche in questo caso, il Garante ha riscontrato che E.ON non effettuava verifiche sulla legittima provenienza dei dati utilizzati per finalità commerciali, né sull’identità dei soggetti che rilasciavano i dati.
Sempre un errore materiale, secondo la società, aveva poi determinato il mancato riscontro all’istanza di esercizio dei diritti dell’interessata.
Oltre alla sanzione pecuniaria di 892.738 euro, l’Autorità ha ordinato alla Società di implementare misure adeguate affinché il trattamento dei dati personali degli interessati avvenga nel rispetto della normativa privacy lungo tutta la filiera del trattamento.
Data breach, FSE Molise: le sanzioni del Garante.
Con tre sanzioni di 10mila euro ciascuna, irrogate rispettivamente alla Regione Molise, alla Società Molise dati, e a Engineering ingegneria informatica S.p.A., il Garante privacy ha definito i procedimenti aperti dopo l’intrusione nel Portale regionale FSE verificatasi tra novembre e dicembre 2022.
Il data breach, causato da una vulnerabilità̀ del sistema informatico, aveva consentito a un cittadino autenticato con il ruolo di “assistito”, attraverso una manipolazione della URL, di effettuare una ricerca di informazioni relative a sette individui presenti nell’Anagrafe regionale del Molise. L’accesso non autorizzato aveva riguardato i dati anagrafici; di residenza e domicilio; e quelli contenuti in documenti e referti sanitari degli utenti coinvolti. Nel corso dell’attività istruttoria, il Garante ha accertato che la violazione era stata provocata da un bug di sicurezza nel sistema di autenticazione con cui si accedeva al Fascicolo Sanitario Elettronico della Regione Molise.
Nel caso specifico, l’Autorità ha sanzionato la Regione Molise in quanto titolare del Portale e la Società Molise dati, in qualità di responsabile dell’attività di implementazione tecnica del FSE, per non aver effettuato verifiche finalizzate a valutare l’eventuale presenza di simili errori nel software sviluppato da Engineering, la società di cui quest’ultima si era avvalsa per lo sviluppo delle componenti tecniche del Portale.
Nel progettare i sistemi informatici utilizzati nell’ambito del FSE, inclusi i sistemi di autenticazione e autorizzazione, Engineering S.p.A., non aveva infatti adottato le misure adeguate a limitare l’accesso da parte degli utenti alle sole informazioni che li riguardavano. Ciò aveva quindi permesso l’illecito da parte di un soggetto terzo, che superata la procedura di autenticazione, aveva potuto utilizzare funzionalità a cui non era autorizzato, mediante la modifica della URL.
Foto di un lifting sui social: il Garante sanziona un chirurgo
Sul profilo del medico le immagini in chiaro di una paziente.
Una sanzione di 20mila euro è stata comminata dal Garante Privacy ad un chirurgo per aver pubblicato sul proprio profilo Instagram le foto di una paziente prima e dopo un intervento di lifting del volto, peraltro, senza avere acquisito il consenso alla diffusione delle immagini. L’Autorità è intervenuta a seguito del reclamo della paziente che lamentava la pubblicazione, sul profilo social del medico, di foto che la ritraevano in modo riconoscibile durante l’operazione.
Nel corso dell’istruttoria, il medico ha affermato che le immagini fossero state scattate per uso interno e che la pubblicazione fosse dovuta a un equivoco legato alla gestione dei consensi tra i diversi professionisti coinvolti nell’intervento. Giustificazione ritenuta non sufficiente dal Garante il quale ha dichiarato illecito il trattamento dei dati sanitari della paziente, in quanto effettuato al di fuori delle finalità di cura in violazione della normativa privacy.
Nel determinare la sanzione, il Garante ha considerato la natura sensibile dei dati personali diffusi e il contesto particolare in cui è avvenuta la violazione, nel quale la legittima aspettativa della reclamante di confidenzialità e riservatezza era elevata, anche in considerazione del rapporto professionale e fiduciario con il medico.