Newsletter Studio Adotti – Aprile 2024

1. IL REGOLAMENTO SULL’INTELLIGENZA ARTIFICIALE (IA ACT)

2. MONITORAGGIO ANAC SULLE CRITICITÀ DEL WHISTLEBLOWING NEL SETTORE PRIVATO


IL REGOLAMENTO SULL’INTELLIGENZA ARTIFICIALE (IA ACT)

L’Artificial Intelligence Act (AI Act), adottato dal Parlamento Europeo il 13 Marzo 2024 con l’atto P9_TA(2024)0138 e consultabile al seguente link: https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_IT.html, rappresenta un significativo passo in avanti volto a disciplinare lo sviluppo e l’utilizzo dell’intelligenza artificiale (IA); il suo obiettivo primario è quello di creare un quadro giuridico armonizzato per l’UE, garantendo la sicurezza e l’affidabilità dell’IA, nonché la protezione dei diritti fondamentali e dei valori dell’Unione Europea.

Il Regolamento – composto da 113 articoli, suddiviso in 13 capi e preceduto da 180 “considerando” – categorizza i sistemi di IA in base al loro livello di rischio. I sistemi cosiddetti “vietati” sono quelli che presentano un rischio inaccettabile per la sicurezza, la salute, i diritti fondamentali o la democrazia. Rientrano in questa categoria, ad esempio, i sistemi di “social scoring”, ossia sistemi che analizzano il comportamento umano al fine di attribuire a un individuo un punteggio che può determinare trattamenti punitivi, ingiustificati o sproporzionati.  I sistemi “ad alto rischio”, previsti dall’art. 6 del Regolamento, invece sono soggetti a requisiti rigorosi di conformità, supervisione e governance. Rientrano in questa categoria, ad esempio, i sistemi di riconoscimento facciale in tempo reale utilizzati per la videosorveglianza. Infine, i sistemi “a rischio limitato” sono solo sottoposti a obblighi di trasparenza e registrazione. Si tratta di sistemi che presentano un rischio limitato per i diritti e le libertà degli individui, come ad esempio i “chatbot”, ossia sistemi di IA basati su software progettati per simulare una conversazione con un essere umano.

I sistemi di IA ad “alto rischio” saranno soggetti a una serie di obblighi, tra le quali a titolo esemplificativo:

  • superare una valutazione di conformità: prima di essere immessi sul mercato, dovranno essere sottoposti a una valutazione rigorosa per verificarne la conformità ai requisiti di sicurezza, eticità e rispetto dei diritti fondamentali.
  • requisiti di progettazione: tali sistemi dovranno essere progettati e sviluppati in modo da minimizzare i rischi e garantire la sicurezza e la protezione dei diritti fondamentali;
  • documentazione: i produttori di tali sistemi dovranno fornire una documentazione completa e aggiornata del sistema stesso;
  • la supervisione umana:per i sistemi di IA ad alto rischio, è necessaria la costante supervisione umana.
  • trasparenza: i sistemi di IA ad alto rischio dovranno essere trasparenti in merito al loro funzionamento e alle loro finalità.

L’Artificial Intelligence Act prevede altresì un articolato sistema sanzionatorio volto a reprimere le violazioni delle sue disposizioni. La severità delle sanzioni è commisurata alla gravità e all’intenzionalità dell’infrazione, tenendo conto della dimensione e del fatturato dell’operatore economico responsabile. Il sistema di sanzioni è basato su una percentuale del fatturato annuo globale nell’esercizio finanziario precedente della società che ha commesso la violazione o, se superiore, su un importo predeterminato: 35 milioni di euro o il 7% per le violazioni relative ad applicazioni di Artificial Intelligence vietate; 15 milioni di Euro o il 3% per violazioni degli obblighi previsti dal regolamento sull’AI; 7,5 milioni di Euro o l’1,5% per la fornitura di informazioni inesatte.

L’irrogazione delle summenzionate sanzioni è demandata alle Autorità Nazionali competenti, le quali sono tenute a collaborare tra loro e con la Commissione Europea attraverso il Comitato Europeo per l’intelligenza artificiale. Tale sinergia mira a garantire un’applicazione uniforme e coerente del sistema sanzionatorio in tutta l’Unione Europea.

L’entrata in vigore del Regolamento avverrà in maniera graduale, con scadenze differenti per le diverse disposizioni. Entro i prossimi sei mesi, entreranno in vigore i divieti previsti dall’AI Act per i sistemi di intelligenza artificiale considerati “vietati”. Dopo un anno, entreranno in vigore le norme specifiche sui modelli “ad alto rischio”. Questi modelli dovranno rispettare standard elevati di trasparenza, sicurezza informatica e condivisione della documentazione tecnica. Infine, due anni dopo l’entrata in vigore iniziale, l’AI Act sarà completamente operativo e saranno applicate le sanzioni per chi non lo rispetta.


MONITORAGGIO ANAC SULLE CRITICITÀ DEL WHISTLEBLOWING NEL SETTORE PRIVATO

L’Autorità Nazionale Anticorruzione (ANAC) ha pubblicato in data 18.03.2024 un report (consultabile al seguente link: https://www.anticorruzione.it/-/monitoraggio-sulle-criticit%C3%A0-nell-applicazione-della-disciplina-whistleblowing-18-marzo-2024) volto a monitorare le criticità nell’applicazione della nuova disciplina in materia di whistleblowing, introdotta dal decreto legislativo n. 24 del 2023.

Il report si basa sui dati e le informazioni raccolte mediante un questionario somministrato, dal 4 al 22 Dicembre 2023, a un campione di soggetti, sia del settore pubblico che privato, tenuti ad attivare canali interni di segnalazione all’interno delle proprie amministrazioni o enti.

Il report, “Monitoraggio sulle criticità nell’applicazione della disciplina whistleblowing (d.lgs. n. 24/2023)”, è suddiviso in una parte prima dedicata all’”applicazione della disciplina da parte dei soggetti del settore pubblico” ed una parte seconda dedicata all’”applicazione della disciplina da parte dei soggetti del settore privato”.

L’obiettivo del monitoraggio era quello di identificare le principali problematiche riscontrate dagli enti  nell’adozione delle procedure di whistleblowing, comprendere il livello di diffusione dei canali di segnalazione interni nonché valutare l’effettiva efficacia del sistema di whistleblowing nel prevenire e contrastare illeciti.

Nel settore privato, il monitoraggio si è basato su un questionario anonimo rivolto a un campione di 213 aziende di diverse dimensioni e settori.

Dall’analisi emerge che il 60% degli enti privati partecipanti ha adottato una piattaforma informatica per il Whistleblowing. Le piattaforme in uso sono per lo più acquisite in forma di servizio cloud, specificamente progettate per gestire segnalazioni di whistleblowing e dotate di sistemi di cifratura per la protezione dei dati.

Oltre alle piattaforme informatiche, il 23% degli enti prevede la possibilità di effettuare segnalazioni tramite PEC (posta elettronica certificata) e il 31% tramite posta elettronica ordinaria (PEO). Circa due terzi degli enti consente anche segnalazioni orali.

Tuttavia, non tutti gli enti hanno specificato che il coinvolgimento di altri uffici/soggetti nella gestione delle segnalazioni avvenga nel rispetto della normativa in materia di privacy.

Dall’indagine emerge, inoltre, che non sempre è garantita autonomia, indipendenza e imparzialità al gestore del canale di segnalazione, soprattutto in caso di segnalazioni che riguardano i vertici aziendali o gli organi di controllo.

In conclusione, pur evidenziando una notevole diffusione delle piattaforme informatiche e di diverse modalità di segnalazione, emergono alcune criticità con riferimento all’autonomia del gestore e al rispetto della normativa privacy. Si auspica, dunque, un rafforzamento del sistema di whistleblowing nel settore privato, mediante l’adozione di misure volte a garantire la piena efficacia dello strumento e la tutela dei diritti dei segnalanti.

Related Posts