2.4 Conformità giuridica dell’IA
Il Regolamento Europeo sull’Intelligenza Artificiale (IA Act) rappresenta uno sforzo epocale da parte dell’Unione Europea per stabilire un quadro normativo completo per l’intelligenza artificiale. È il primo grande tentativo dell’UE di regolamentare l’IA, mirando a garantire che i sistemi di IA sviluppati, implementati e utilizzati all’interno dell’UE siano sicuri, trasparenti e rispettino i diritti fondamentali. L’Atto cerca di promuovere l’innovazione mitigando al contempo i potenziali rischi associati all’IA.
Una caratteristica centrale dell’AI Act è il suo approccio basato sul rischio alla regolamentazione dei sistemi di IA. Ciò significa che l’Atto classifica i sistemi di IA in quattro categorie distinte, ciascuna con diversi livelli di controllo normativo, in base al rischio percepito che comportano:
- IA a rischio inaccettabile
Questi sistemi di IA sono considerati un livello inaccettabile di rischio per i diritti fondamentali e sono di conseguenza vietati. Esempi di tali sistemi includono l’IA che manipola il comportamento umano per causare danni, il riconoscimento facciale in tempo reale in spazi pubblici per le forze dell’ordine (con eccezioni molto limitate), e sistemi di punteggio sociale che tentano di classificare i cittadini in base al loro comportamento o caratteristiche. - IA ad alto rischio
I sistemi di IA di questa categoria sono consentiti ma sono soggetti a severi requisiti normativi. Questi sistemi sono tipicamente utilizzati in aree sensibili in cui le decisioni dell’IA possono avere un impatto significativo sulla vita degli individui. Esempi includono l’IA utilizzata nell’istruzione (come per la valutazione automatica), l’assistenza sanitaria, le forze dell’ordine, i processi di reclutamento e l’accesso a servizi pubblici essenziali. - IA a rischio limitato
I sistemi di IA classificati a rischio limitato sono generalmente consentiti ma devono aderire a determinati obblighi di trasparenza. Un esempio comune sono i chatbot o i sistemi di IA che interagiscono con gli utenti, dove è richiesto di rivelare che l’utente sta interagendo con una macchina, garantendo che gli utenti siano consapevoli di non comunicare con un essere umano - IA a rischio minimo
I sistemi di IA che rientrano nella categoria a rischio minimo possono essere utilizzati liberamente, sebbene l’uso responsabile sia comunque fortemente incoraggiato. Esempi includono l’IA utilizzata nei filtri antispam o negli NPC dei videogiochi.
L’AI Act, nel suo perseguimento di uno sviluppo e di un’implementazione responsabile dell’IA, delinea diversi principi chiave che si applicano a tutti i sistemi di IA non proibiti. Questi principi, sia incoraggiati che imposti dal regolamento, sono progettati per garantire che le tecnologie di IA siano utilizzate in modo che sia sia vantaggioso che eticamente valido.
Innanzitutto, la trasparenza. Il regolamento sottolinea l’importanza di informare gli utenti quando interagiscono con un sistema di IA. Questa trasparenza è cruciale per promuovere la fiducia e consentire agli utenti di prendere decisioni informate sulle loro interazioni. Permette agli utenti di comprendere la natura della tecnologia con cui stanno interagendo e aiuta a evitare qualsiasi potenziale inganno.
In secondo luogo, il regolamento sottolinea la necessità di Supervisione Umana. Particolarmente nei sistemi di IA ad alto rischio, che possono avere impatti significativi sulla vita degli individui, il regolamento impone che ci debbano essere disposizioni per il monitoraggio e il controllo umano. Ciò garantisce che il giudizio umano rimanga un elemento cruciale nel processo decisionale guidato dall’IA, impedendo ai sistemi di IA di operare autonomamente in situazioni in cui l’intervento umano è necessario.
Inoltre, il regolamento evidenzia l’importanza della robustezza e della precisione. I sistemi di IA dovrebbero essere progettati e sviluppati per funzionare in modo affidabile e sicuro. Questo principio sottolinea la necessità che i sistemi di IA siano affidabili e che minimizzino il rischio di errori o fallimenti, specialmente in applicazioni in cui la sicurezza è fondamentale.
Infine, il regolamento pone un’enfasi significativa sulla Data Governance. La qualità dei dati di addestramento è fondamentale per le prestazioni e l’equità dei sistemi di IA. Pertanto, il regolamento impone che i dati di addestramento debbano essere pertinenti, rappresentativi e privi di bias. Ciò garantisce che i sistemi di IA siano addestrati su dati che riflettono accuratamente il mondo reale e non perpetuino o amplifichino i bias sociali esistenti.