Home
Network ALL-IN
Quotidiano
Specializzazioni
Rubriche
Strumenti
Fonti
7 aprile 2025
AI e nuove tecnologie
L’affidabilità delle citazioni giurisprudenziali contenute nell’atto processuale va verificata dal difensore ma non ingenera automaticamente la responsabilità ex art. 96 c.p.c.
La possibilità di ravvisare la responsabilità aggravata deve ritenersi correlata all'esistenza di uno specifico danno ed alla sua concreta dimostrazione nel giudizio.
di Avv. Fabrizio Sigillò
Il caso

ilcaso

Articolo realizzato con la collaborazione dell'avv. Valeria Pollinzi

Il Tribunale di Firenze (sez. Imprese), richiesto a decidere su un reclamo in materia di uso di marchi contraffatti e vendita dei relativi prodotti, interviene incidentalmente (ordinanza del 14/3/2025), sull'utilizzo dell'intelligenza artificiale nel contesto processuale.
Questo argomento – a dire il vero – resta sostanzialmente estraneo alla pronuncia collegiale attenzionata al merito della vicenda ed all'applicabilità della responsabilità aggravata prevista e regolata dall'art. 96 c.p.c., che viene invocata da una delle parti costituite, ritenutasi lesa dalla presenza di una citazione giurisprudenziale non esistente e suscettibile di impattare sugli esiti della decisione finale.
Questo l'errore in cui era effettivamente incorso uno dei difensori, reo di aver menzionato, nelle note difensive, un precedente giurisprudenziale che – questo si sarebbe appurato successivamente – era stato acquisito da un noto sistema di ricerca con intelligenza artificiale (ChatGPT) ma che in effetti era inesistente.
L'ordinanza si sviluppa attraverso l'analisi dettagliata dei princìpi di cui all'art. 96 del c.p.c. e si completa con una decisione di carattere generalista che rimane cioè sganciata dalle specifiche modalità con cui la ricerca giurisprudenziale risultava eseguita.
Essa non impatta cioè sull'uso dell'intelligenza artificiale nell'ambito processuale, ma costituisce pur sempre la prima occasione di discussione sulla pratica applicazione di queste nuove tipologie di strumenti sia nell'ambito forense che in molti altri contesti professionali e produttivi.

Il diritto

ildiritto

Le premesse che precedono guidano il commento che segue alla disamina di quella sezione della decisione dedicata all'illustrazione delle caratteristiche della responsabilità aggravata regolata e sanzionata dall'art. 96 c.p.c. e che – come si è detto in apertura – finisce per toccare solo incidentalmente gli effetti discendenti da un uso errato di un sistema di intelligenza artificiale c.d. “generativa”.
Accurata l'indagine svolta su quel profilo dal Tribunale del capoluogo toscano e che comprende tanto la parte delineata al comma 1 dell'art. 96 c.p.c. (“Se risulta che la parte soccombente ha agito o resistito in giudizio con mala fede o colpa grave, il giudice, su istanza dell'altra parte, la condanna, oltre che alle spese, al risarcimento dei danni, che liquida, anche d'ufficio, nella sentenza”), quanto l'altra definita dal comma 3 (“In ogni caso, quando pronuncia sulle spese ai sensi dell'articolo 91, il giudice, anche d'ufficio, può altresì condannare la parte soccombente al pagamento, a favore della controparte, di una somma equitativamente determinata”).
Perentoria sul punto la conclusione del Collegio: la possibilità di ravvisare la responsabilità aggravata deve ritenersi correlata all'esistenza di uno specifico danno ed alla sua concreta dimostrazione nel giudizio “…sia dell'an e sia del quantum debeatur, richiamandosi in proposito precedente di legittimità che postula la possibilità che alla liquidazione del danno (effettuabile d'ufficio) possa pervenirsi attraverso la disamina di quegli atti di causa idonei a rendere percepibili l'esistenza del pregiudizio cagionato all'altra parte" (Cass. civ., sez. lavoro, sent. 9080 del 15 aprile 2013).
È quanto non si riscontra nel caso di specie privo sia della dimostrazione della mala fede o della colpa grave, sia del conseguente danno (di entrambi – precisa il Tribunale – non è dato rinvenire “…alcuna allegazione, neppur generica…”).
Esclusa anche l'applicabilità del comma 3 dell'art. 96 c.p.c.…preordinata a disincentivare l'abuso del processo o comportamenti strumentali alla funzionalità del servizio giustizia ed in genere al rispetto della legalità sostanziale; tale fattispecie deve inoltre intendersi come species dei primi due commi, per cui non si può prescindere dalla condotta posta in essere con mala fede o colpa grave né dall'abusività della condotta processuale”.
Thranchant il rilievo sulla dedotta rilevanza dell'errore (peraltro espressamente riconosciuta dal difensore che riconduce l'accaduto ad una azione autonoma di un collaboratore di studio) sulla decisione del Tribunale che rileva come la difesa del resistente risultasse univocamente delineata sin dall'originaria difesa esposta nel primo giudizio con l'effetto che la citazione giurisprudenziale non avrebbe e non ha in alcun modo interferito sulla determinazione conclusiva del giudizio.
Circoscritta la parte conclusiva della motivazione che si chiude con un fermo richiamo al “…disvalore relativo all'omessa verifica dell'effettiva esistenza delle sentenze risultanti dall'interrogazione dell'IA…” che il Collegio dirige al disattento difensore.

La lente dell'autore

lenteautore

Al netto delle utili precisazioni sulla portata dell'art. 96 c.p.c. e ferma restando l'occasionalità dell'interesse rivolto dal Tribunale ai sistemi di intelligenza artificiale, non può disconoscersi primarietà ad una pronuncia che ben può annoverarsi quale primo esperimento italiano su una questione al momento estremamente attenzionata.
È questione nuova che il Consiglio pare affrontare all'insegna di un buon senso che si sposa con quella sorta di paternale invito ad un utilizzo ragionato di queste tipologie di sistemi e che mira a scongiurare il loro incontrollato ed acritico affidamento, privilegiando un'attenta verifica tanto sulle risposte ricevute dalla macchina, quanto sulle componenti in esse rinvenibili (in questo caso la fonte del provvedimento, il numero della sentenza e l'anno di riferimento).
Presumibilmente utile (ed anche opportuno) a questa impostazione deve ritenersi l'onesto riconoscimento dell'errore operato dal difensore “responsabile” dell'accaduto, da questi ricondotto all'incauta quanto autonoma determinazione assunta da un collaboratore di studio e di cui egli non era a conoscenza.
La decisione parrebbe utile a sostenere quella posizione che si oppone all'utilizzo di questa componente tecnologica nell'attività giudizale.
Pare il caso di precisare come questi orientamenti poggino su allarmanti precedenti già riscontrati dalla giurisprudenza d'oltre oceano, travolta dai pregiudizievoli effetti di una decisione fondata su un apposito algoritmo di calcolo non adeguatamente istruito a dovere e che aveva quindi determinato una spropositata quantificazione della pena da irrogare all'imputato.
Il riferimento, ancorchè connesso all'uso di sistemi di intelligenza artificiale, differisce nettamente dalla fattispecie “italiana” qui in esame, perché relativo al “bias” dei sistemi di intelligenza artificiale che non siano ben formati o caratterizzati dalla prevalenza di errati pregiudizi (es. differenza tra uomo bianco o di colore, o tra uomo o donna) suscettibili di condizionare la risposta.
Più aderente all'esame del Tribunale fiorentino può dirsi la fenomenologia delle cosiddette “allucinazioni”, nient'altro che vere e proprie invenzioni che il sistema stesso crea allorquando mancante di una risposta reale.
Anche di essa l'esperienza americana ha evidenziato profili di incertezza (nota la sorte di un giudizio di risarcimento danni in cui l'avvocato aveva elaborato l'intera difesa su un numero elevato di precedenti giurisprudenziali elaborati da Chat GPT e – come anche nel caso che qui si commenta – erano risultati inesistenti e quindi falsi).
Essi possono anzi ritenersi tipici dei sistemi di IA c.d. “generativi”, rispondenti ad una discutibile esigenza che vuole la macchina, richiesta inderogabilmente a fornire una risposta che, ove non disponibile, viene elaborata mediante autonome determinazioni.
L'assoluta novità dell'argomento avrà probabilmente guidato il Tribunale di Firenze ad un approccio cauto e meno rigoroso ad una fattispecie obiettivamente non edificante e che si risolve in una generica valutazione che probabilmente il Collegio avrebbe adottato anche nell'ipotesi in cui l'accaduto non si fosse verificato in regime di intelligenza artificiale.
È un approccio che evita gli effetti pregiudizievoli propri dell'invocata responsabilità aggravata, ma lascia aperta una discussione che involge profili etici e professionali di non secondaria importanza.
Vi rientra, ma senza intento censoreo, l'atteggiamento del ricorrente, attento alla prospettazione di un nuovo profilo dell'eccezione processuale, interessato agli effetti pratici conseguente alla condanna ed al tempo stesso indifferente alle conseguenze professionali della malaugurata controparte incorsa nel colposo errore.
Quest'ultimo, a sua volta, finisce per rivelare la sostanziale superficialità nell'approccio all'uso degli strumenti elettronici, da troppo tempo ormai affidati all'azione di sedicenti esperti od occasionali collaboratori, sorprendentemente abilitati al libero utilizzo del certificato di firma digitale del difensore non avvezzo all'informatica, o al suo subentro nel deposito telematico degli atti processuali che restano pur sempre depositi del “dante causa”.
È un comportamento che rivela una preoccupante e limitata percezione di una tecnologia che nulla ha modificato in punto di responsabilità professionale dell'avvocato che sbaglia; sbaglia perché non conosce un elemento (le procedure informatiche) ormai parte della professione e di cui pure egli deve avere idonea competenza.
Al netto del rilievo che precede sembra possa riconoscersi alla decisione del Tribunale di Firenze, il pregio di aver consolidato l'esigenza di linee guida che impongano un approccio critico e consapevole all'uso degli strumenti digitali e che escludono che tutta l'attività difensiva o decisoria possa essere affidata a sistemi di IA e sanciscono con maggior pregnanza la necessità che dietro alla macchina deve essere assicurata la presenza dell'uomo.

Documenti correlati