L’Ai Act è legge: ora bisogna saperlo mettere in pratica

Ai Act Ue regolamento intelligenza artificiale
La legge è stata approvata con una larghissima maggioranza ma per molti motivi, per quanto ampia e condivisa, potrebbe non essere sufficiente

Il 13 marzo 2024, il Parlamento europeo ha approvato l'Ai Act. Questa è una legge storica che regola l'intelligenza artificiale nell'Unione Europea. La legge è stata approvata con una larghissima maggioranza, con 588 voti favorevoli, 56 contrari e 38 astenuti. Per una serie di motivi non condivisibili, l’accordo era stato dato per raggiunto già qualche tempo fa.

L'Ai Act è la prima legge mondiale del suo genere e mira a creare un quadro normativo chiaro. La legge stabilisce diverse categorie di rischio per i sistemi di intelligenza artificiale, a seconda del loro potenziale impatto sulla sicurezza e sui diritti dei cittadini. I sistemi ad alto rischio, come quelli sulla sorveglianza biometrica o la valutazione del credito, saranno soggetti a requisiti più rigorosi. Le disposizioni della nuova normativa sono numerose. Tra queste troviamo il divieto di sistemi di Ai che violano i diritti umani o la dignità umana, l’obbligo di trasparenza, i requisiti di sicurezza e di test per i sistemi di Ai ad alto rischio e l’istituzione di un organismo europeo per l'intelligenza artificiale.

Molti saranno comunque i casi in cui aziende di specifici settori (si pensi alla sicurezza nazionale) saranno esentati da una parte dei controlli. L'Ai Act è un passo importante per garantire che l'intelligenza artificiale sia sviluppata in modo responsabile e sicuro, vista anche l’incredibile rapidità di sviluppo di questi sistemi. Quello che viene normato oggi, infatti, potrebbe essere diverso da ciò che il mercato proporrà domani. L’Ai Act comprende anche una serie di accorgimenti per rendere semplice e breve eventuali aggiustamenti.

In Italia iGenius e Fastweb

Bisogna considerare anche che per molti motivi una legge, per quanto ampia e condivisa, potrebbe non essere sufficiente. Non c’è solo l’impietoso confronto tra investimenti di multinazionali e quelli possibili a livello governativo. L’esistenza di nazioni importanti ma con una base linguistica ridotta come l’Italia, in rapporto a lingue diffuse come il mandarino, l’inglese e lo stesso arabo, renderà complessa l’uniformazione nelle varie aree geografiche degli LLM (large language models).

Questi sono stati addestrati prevalentemente su base anglofona. Ecco perché si stanno sviluppando iniziative nazionali come la francese Mistral (che però ha appena incassato un investimento di Microsoft), le tedesche LeoLM e AlephAlpha e anche due idee italiane, iGenius (con dietro il Cineca) e Fastweb. Ma le università italiane pullulano di progetti proposti come straordinari ma che certamente non hanno avuto le centinaia di milioni di euro necessari per irrobustirsi e validarsi (Mistral 100M, AlephAlpha 500M, OpenAi 11.000M).

“Ai Cloud” sovrano e privato

Le iniziative italiane avranno dietro anche una infrastruttura di esecuzione, una specie di cloud Ai con una certa capacità di elaborazione e -si spera- di gestione dei dati all’interno di perimetri italiani o al massimo europei. Anche questo è un problema rilevante: poiché le Ai “apprendono”, dar loro dati rilevanti di aziende, pubblica amministrazione o infrastrutture permetterebbe al sistema globale di costruire uno schema su questi dati che invece dovrebbero diventare privati. Ecco quindi che la sovranità nazionale dei dati, in generale ma a maggior ragione nell’AI, dovrebbe essere affidata ad una serie di datacenter nazionali in cloud ma anche ad una costellazione di Ai Center privati.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome