Home
Network ALL-IN
Quotidiano
Specializzazioni
Rubriche
Strumenti
Fonti
16 aprile 2024
Giustizia e intelligenza artificiale: quel che l’AI ACT fa, l’Italia può disfare
All'alba del nuovo disegno di legge del Parlamento italiano sull'intelligenza artificiale, i pericoli di una disciplina frenante i benefici dell'applicazione dei sistemi di intelligenza artificiale nella giustizia; in particolare, sul ruolo del magistrato.
di Avv. Francesco G. Capitani
L'art. 15 della bozza del DDL sull'intelligenza artificiale (stando alla versione dell'8 aprile) riserva «al magistrato [in caso di utilizzo dei sistemi di intelligenza artificiale per la ricerca giurisprudenziale e dottrinale anche finalizzata all'individuazione di orientamenti interpretativi, per la predisposizione di bozze e per ogni altro impiego strumentale] la decisione sulla interpretazione della legge, sulla valutazione dei fatti e sulla adozione di ogni provvedimento»; l'inciso appare specificativo in senso limitante, vedremo in che modo, dell'art. 14 dell'AI Act - la legge sull'intelligenza artificiale di matrice comunitaria – che, fra le altre premure in capo ai “sorveglianti” dei sistemi ad alto rischio – quale la giustizia ai sensi dell'art. 8 dell'allegato III del regolamento – impone la corretta interpretazione dell'output del sistema di IA, «tenendo conto degli strumenti e dei metodi di interpretazione disponibili» ed eventualmente consente di «decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l'output del sistema di IA» anche tenuto conto dei rischi di un “eccessivo affidamento” in ordine ai sistemi “utilizzati per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche” (un magistrato, esattamente).

La bozza di DDL cit. fa del magistrato l'autore esclusivo della motivazione di un provvedimento giudiziale (pare) non ponendo al medesimo, nella generalità dei casi, alcun vincolo di adesione o presa d'atto di quanto sia risultato dai sistemi di intelligenza artificiale; l'AI Act, invece, pare concentrarsi sulle tecnologie algoritmiche correttamente da interpretare (non prescindendo dall'output, di cui tenere conto) le quali, evidentemente, presuppongono una sorta di conoscenza tecnica del modo in cui il sistema di intelligenza artificiale sia arrivato a uno specifico risultato, consentendo al magistrato di discostarsene in “qualsiasi caso particolare”.

Regola ed eccezione, in breve, risultano invertiti; l'AI Act sembra spingersi più oltre del DDL cit.

Mentre la bozza di DDL cit. riserva al magistrato tout court la possibilità di stralciare (nulla più motivando) l'output di un sistema di intelligenza artificiale, l'AI Act avverte della necessità di tenervi conto secondo gli «strumenti e i metodi di interpretazione disponibili» eventualmente consentendo al magistrato di virare, se non condiviso l'output, in situazioni particolari, in direzione opposta; probabilmente lo spazio semantico che si è aperto fra l'una e l'altra normativa potrà essere riempito dalla normazione ministeriale cui la bozza del DDL cit. rinvia per regolare l'«impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari» e che, probabilmente, sarà oggetto di confronto fra ministeri, giudici e organismi rappresentativi dei professionisti del processo.

Nella peggiore delle ipotesi, si porrà il rischio di un'eccessiva regolamentazione che sconti una sostanziale diffidenza nei nuovi sistemi (per altro anticipata dagli addetti ai lavori); i sistemi di intelligenza artificiale, comunque limitati dal DDL cit. all'impiego «strumentale e di supporto all'attività giudiziaria», potrebbero essere relegati a già quel che fanno oggi (ricerca giurisprudenziale, i più sofisticati redattori di testo) di fatto non fornendo sostanziale ausilio all'iniziativa giudiziale, sgonfiando i benefici dei nuovi sistemi; l'AI Act, invece, utilizza una tecnica redazionale che, prima, enuclea cosa fanno i sistemi di intelligenza artificiale e, poi, ne individua i rischi ponendo i correttivi (sorveglianza, governance, responsabilità), coi riflettori stabilmente puntati su un sistema che intende essere trasparente ma utile, governato ma idoneo a migliorare le produttività.

Nella migliore della ipotesi invece – se le regolamentazioni ministeriali coglieranno l'occasione -, il magistrato potrebbe essere posto di fronte (senza patire mal di stomaco) a un output di un sistema di intelligenza artificiale e sarebbe obbligato a prenderne posizione se dotato degli strumenti di comprensione del processo algoritmico, potendo discostarsene «in qualsiasi caso particolare»; è dunque presupposta la conoscenza di come la macchina elabora le richieste e fornisce un responso.

In quest'ultimo caso, fra le prassi consolidate in cui il sistema giudiziario attinge più decisamente alle evoluzioni tecnologiche anche di intelligenza artificiale, il magistrato: 
  • interroga i «processi decisionali basati su dati», almeno, nei sistemi di giustizia predittiva basati sul precedente; in tal caso il giudice sviluppa abilità nel prompting legale, cioè nell'interrogazione della macchina che consenta di sfruttare al meglio, e in modo efficacemente orientato, la potenza del calcolatore per giungere all'output quanto più a misura sulla soluzione richiesta; inoltre il magistrato è in grado di leggere i gangli associativi tracciati dai percorsi algoritmici verificando la misura della coincidenza con i metodi tradizionali dell'interpretazione giuridica e delle norme (le priorità logiche – giuridiche); si tratta, quest'ultima, dell'operazione più complessa, perché mentre l'algoritmo dal dato deduce una regola associativa con altri dati, il sillogismo giudiziario, all'opposto, alla regola fa seguire il dato (induzione versus deduzione).
  • Deve essere in grado, intuita la “quasi logica” della macchina e la necessità di plasmare la motivazione di un provvedimento, di isolarne le componenti atomiche (primarie o prevalenti, secondarie o recessive, o accidentali) e spiegare il processo decisionale il quale, finirà in pasto al calcolatore sezionato in tante parti quali potranno essere quelle oggetto di ricerca di altri giudici. Prevarrà l'abilità organizzativa e strutturale del giudice nella composizione del testo (ne gioveranno ordine, esposizione e chiarezza) e la disposizione nello spazio logico narrativo del flusso di informazioni reso disponibile dall'istruttoria, dai metodi dell'interpretazione e dalle scienze private; se più ordinata la stesura del testo, sia la macchina, alimentata da nuovi dati, sarà in grado di ordinarne gli argomenti (alimentando la “quasi – logica” di dati commestibili che la macchina riconosce, di fatto raffinandola), sia un altro magistrato saprà poterli relazionare interrogando la macchina (prompting legale).
Ci si augura che le sollecitazioni comunitarie, per altro prevalenti per la natura regolamentare (e non di mera direttiva) dell'AI Act, non vengano disinnescate dalle discipline nazionali.
Documenti correlati