AI Act ( Artificial Intelligence Act) e cenni sulle regolamentazioni internazionali

EU, USA, Canada e Cina

La bozza revisionata dell’AI act è stata approvata da Commissione, Consiglio e Parlamento europeo il 14 Giugno 2023 e dovrebbe essere discussa per conferma definitiva in Parlamento Europeo questo Aprile 2024. Il testo entrerà in vigore a Giugno 2026: i produttori di AI avranno tempo fino al 1 Gennaio 2026 per conformarsi alle nuove disposizioni. 

Il regolamento europeo istituisce un quadro giuridico uniforme volto a regolare lo sviluppo, la commercializzazione e l’uso dei sistemi di IA, ovviamente, in conformità con i valori e i diritti dell’UE. In primo luogo, l’AI act si applica a tutti i sistemi di Intelligenza Artificiale che vengono sviluppati, immessi sul mercato o utilizzati nell’EU. Il regolamento definisce i sistemi di IA come “qualsiasi software che utilizza uno o più algoritmi di apprendimento automatico per generare output o prendere decisioni“.

In particolare, anche a seguito di quanto deciso al G7 di scorso anno, l’Europa ha adottato un risk based approach per regolamentare i sistemi di Intelligenza Artificiale: l’AI act intende per rischio  qualsiasi potenziale danno alla sicurezza e alla salute delle persone”. Per questo, il testo contiene la categorizzazione di rischi specifici associati all’AI. Infatti, i tipi di rischi si dividono in rischio per la sicurezza fisica e mentale delle persone, per i diritti fondamentali, per la democrazia e lo Stato di diritto e per l’ambiente e per la sicurezza economica. Oltre a ciò, i tipi di rischio vengono anche etichettati dal più “pericoloso” al meno dannoso: rischio inaccettabile, alto, limitato, minimo. In base a loro tasso di dannosità vengono previsti degli obblighi a carico dei produttori di questi sistemi. Infatti, l’AI act si fonda anche sui principi di sicurezza e trasparenza

Per questo, in ragione della sicurezza i sistemi di IA devono essere progettati e sviluppati in modo da ridurre i rischi per la sicurezza e la salute delle persone, per i diritti fondamentali e per gli interessi pubblici. Per tale motivo, i sistemi ad alto rischio prevedono degli oneri più stringenti rispetto a quelli che non presentano rischi o sono a basso rischio. Ad esempio, nel primo caso i produttori avranno l’onere di effettuare una valutazione dei rischi, creare un progetto quanto più sicuro possibile, rendere il tutto più trasparente possibile ed assumersi la responsabilità dei danni causati dai loro sistemi. Invece, nel secondo caso sarà sufficiente dare adeguata informazione agli utenti in merito ai rischi associati all’utilizzo del sistema AI ed una documentazione adeguata. 

In secondo luogo, i sistemi di IA devono essere progettati e sviluppati in modo da garantire la trasparenza delle loro decisioni e dei loro processi. Questo affinché le persone possano essere in grado di impugnare le decisioni dei sistemi e di ottenere un riesame umano. Infatti, i produttori di sistemi di IA hanno tempo fino al 1° gennaio 2029 per conformarsi alle nuove disposizioni. Per questo, sembra che l’AI act implicherà l’adozione di sistemi di sorveglianza interni alle aziende anche se la normativa non lo prevede specificamente.

Infine, è stato previsto anche un sistema sanzionatorio. Le ammende sono fissate come una percentuale del fatturato annuo globale dell’azienda colpevole nell’esercizio finanziario precedente o di un importo predeterminato, a seconda di quale sia il più alto.

L’EU non è stata l’unica a normare l’utilizzo dei sistemi AI. Infatti, per primi gli USA (Ottobre 2022 “Blueprint for an AI Bill of rights”), poi Canada ( 27 Settembre 2023, “Voluntary Code of Conduct on the Responsible”) e Cina ( 11 Aprile 2023 pubblicata la prima bozza e non ancora approvato) hanno già normato la questione AI. 

In particolare, hanno adottato un sistema normativo orizzontale (come l’EU) gli USA e il Canada: gli USA si sono concentrati sulla protezione dei loro diritti fondamentali che potrebbero essere messi in crisi dall’AI prevedendo 5 principi base, Il Canada ha previsto 6 obblighi (accountability, safety, fairness and equity, trasparency, human oversight and monitoring, validity and robustness) per le aziende che producono sistemi AI. Mentre la Cina ha scelto un sistema di regolamentazione verticale: ovvero prende in considerazione tecnologie specifiche. 

06.02.24

Dott.ssa Claudia Giannelli

Lascia un commento