In Cina nella Procura popolare di Shanghai Pudong c'è un giudice in grado di “elaborare accuse” con il 97% di precisione, valutando i precedenti e tutti i dati connessi a otto reati più comuni. Una performance niente male per chi aspira a una giustizia più veloce ed efficiente, peccato che quel giudice non sia un essere umano ma un software di intelligenza artificiale.
Negli Stati Uniti invece un cittadino americano di nome Loomis nel Wisconsin è stato accusato di essere alla guida di un'auto usata durante una sparatoria e di non essersi fermato al controllo di polizia. E' stato condannato a sei anni di reclusione perché il software di intelligenza artificiale usato dal giudice aveva giudicato il soggetto “ad alto rischio” in base alle risposte date a un questionario di 137 domande riguardanti età, lavoro, vita sociale e relazionale, grado di istruzione, uso di droga, opinioni personali e percorso criminale. Insomma, la pena comminata era particolarmente alta non per quello che aveva fatto, ma per quello che si riteneva probabile che avrebbe fatto in futuro.
Insomma, quello che nel film del 2002 “Minority Report” era fantascienza, sta già diventando realtà.
E anche se in Europa siamo lontani dai casi estremi sopracitati, l'applicazione dell'intelligenza artificiale nella giustizia sta cominciando a muovere i primi passi anche in Italia con alcune sperimentazioni.
Se gli scenari più inquietanti diventeranno realtà o resteranno nei film di fantascienza dipende anche molto dal regolamento sull'intelligenza artificiale proposto dalla Commissione europea due anni fa, a cui sto lavorando personalmente come co-relatore del Parlamento europeo, insieme al collega Dragos Turorache.
Anche se la questione oggi sembra lontana dalla vita della maggior parte dei cittadini, alle prese con le emergenze del caro bollette, è di fondamentale importanza che l'Unione europea approvi al più presto questa normativa, si spera entro il 2023, perché vista l'importanza del mercato europeo e la capacità regolatoria dell'Ue probabilmente gli standard definiti a Bruxelles influenzeranno lo sviluppo del settore nel resto del mondo, come già è successo per le regole sulla privacy.
In particolare oggi si discute su quali applicazioni dell'intelligenza artificiale debbano essere considerate ad “alto rischio”, con tutti gli adempimenti a cui saranno tenute le case produttrici in questa eventualità, e quali da proibire perché troppo pericolosi.
Ho proposto anche l'introduzione di una norma che prescriva agli utilizzatori dei sistemi di intelligenza artificiale nella giustizia, law firm e tribunali, di effettuare una valutazione di impatto dell'applicazione sui diritti delle persone coinvolte nei casi specifici, e non solo nel caso eventuale di una decisione giudiziaria, ma anche nel caso di studio e di analisi della causa e ogni volta che lo strumento supporti l'attività di assistenza e consulenza.
In gioco ci sono le nostre libertà fondamentali e i diritti civili e, in un momento in cui questi sono sotto attacco anche politicamente dall'estrema destra, dobbiamo stare molto attenti a non farceli rubare dai vari algoritmi che si infilano in ogni spazio della nostra vita pubblica e privata in nome dell'efficienza. L'esempio che ho fatto sull'amministrazione della giustizia è uno fra quelli possibili poiché anche l'ambito della sorveglianza, della decisione sui diritti civili e sociali, della attività nei luoghi di lavoro è oggi già profondamente influenzato da queste tecnologie e servono perciò adeguate protezioni per i cittadini. Noi stiamo lavorando affinché l'ecosistema dell'intelligenza artificiale possa svilupparsi senza difficoltà in Europa, regolando gli ambiti rischiosi e mettendo l'essere umano al centro.
Solo così si può avere fiducia nelle nuove tecnologie e renderle quindi accettabili in una democrazia dove la tutela delle persone, specie dei più fragili, deve essere la prima priorità nelle scelte legislative.
Brando Benifei