Con quello che la presidente Roberta Metsola ha definito "un voto storico", l'Eurocamera ha dato il via libera all'AiAct, un insieme di regole che rendono l'Unione europea la prima potenza al mondo a stabilire norme per garantire che l'uso dell'Intelligenza artificiale non violi le leggi e i valori fondamentali dell'Europa.
Nel testo, frutto di mesi di negoziati tra le parti, l'attenzione è rivolta soprattutto ai cosiddetti 'foundation models', blocchi di conoscenza primaria che fungono da fondamenta per il funzionamento delle tecnologie a IA e che dovranno insegnare agli algoritmi che domineranno il nostro futuro ad essere al servizio dell'uomo e a prevenire la discriminazione in ambito digitale. "Ci dicevano che imponendo regole severe avremmo frenato l'innovazione e invece abbiamo avuto il coraggio di imporre un modello che potrebbe essere un esempio per il mondo intero", ha esultato il relatore del testo, il capodelegazione del Pd, Brando Benifei. "Le nuove regole saranno uno standard globale a lungo", ha sottolineato Metsola. La proposta prevede una serie di divieti tassativi all'utilizzo dell'intelligenza artificiale per pratiche come il 'social scoring', ovvero la classificazione dei comportamenti sociali, per l'uso di algoritmi che leggono le emozioni in contesti di lavoro o nelle scuole e per i sistemi di polizia predittiva, ovvero algoritmi che utilizzano sistemi di profilazione basati su dati personali o comportamenti passati. E' stato anche approvato il divieto all'utilizzo delle tecnologie di riconoscimento biometrico in tempo reale negli spazi pubblici: il tema, tuttavia ha diviso l'aula di Strasburgo.
Il Ppe aveva avanzato un emendamento che introduceva alcune eccezioni al divieto come nel caso di minacce terroristiche e ricerche di minori scomparsi. Ma il blitz dei Popolari è stato fermato da una cordata composta da Sinistre, Verdi, Liberali e Socialisti. "Sventato il rischio di essere trasformati in codici a barre che camminano", hanno chiosato gli eurodeputati S&d sui social. Per gli utilizzi non vietati, il testo impone una classificazione in fasce di rischio con regole stringenti di sorveglianza umana per la fascia più alta, che include utilizzi legati ai sistemi educativi, informativi o legati allo svolgimento della vita democratica. I sistemi di IA generativa come Chat Gpt dovranno rispettare stringenti requisiti di trasparenza, come ad esempio imporre la dichiarazione che il contenuto è stato generato dall'IA, aiutando così a distinguere le cosiddette immagini deep-fake da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Quello dell'Eurocamera è solo il primo sì che avvia una fase negoziale comunque in salita. Ma il dossier, in Europa, è ormai prioritario. Emmanuel Macron ha annunciato fondi supplementari per 500 milioni di euro per lo sviluppo dell'IA francese. L'inquilino dell'Eliseo venerdì vedrà Elon Musk: "Parleremo di social network, IA e regole di inquadramento". A Bruxelles invece il nuovo regolamento verrà sottoposto ai cosiddetti triloghi, i negoziati con la Commissione ed i 27 stati membri, la cui prima sessione si è aperta già nella serata di mercoledì. Per la vicepresidente della Commissione europea, Margrethe Vestager, vista la velocità di sviluppo delle nuove tecnologie, i negoziatori dovrebbero puntare a concludere il lavoro entro la fine del 2023. Trovato l'accordo con le capitali il testo prevede un periodo di 24 mesi prima dell'entrata in vigore delle nuove regole, tempo che Benifei ha già annunciato di voler provare a ridurre in sede di negoziato a 18 o forse meno. "I rischi legati a queste tecnologie non sono legati al domani ma esistono già oggi, bisogna agire senza perdere tempo. L'era dell'IA è già iniziata ", ha avvertito il relatore.