Home
Network ALL-IN
Quotidiano
Specializzazioni
Rubriche
Strumenti
Fonti
3 ottobre 2025
AI e nuove tecnologie
Giurisprudenza errata estratta da un sistema di IA: effetti e responsabilità ex art. 96 c.p.c.
Il rinvio a precedenti giurisprudenziali estratti da un sistema di IA ma rivelatesi inesistenti determina la responsabilità processuale prevista dall'art. 96 c.p.c..
di Avv. Fabrizio Sigillò
Il caso

ilcaso

Articolo realizzato con la collaborazione dell'avv. Valeria Pollinzi

La sezione Lavoro del Tribunale di Torino, con sentenza del 16 settembre 2025, decide incidentalmente sull'applicazione di un sistema di intelligenza artificiale utilizzata per la redazione del ricorso introduttivo di un giudizio di opposizione ad ingiunzione di pagamento.
Questa determinazione, desunta dalla lettura dei contenuti dell'atto, viene ritenuta dal giudice monocratico produttiva di responsabilitàaggravata ai sensi dell'art. 96 del Codice di procedura civile ed associa quindi al rigetto integrale della domanda giudiziale, la condanna al pagamento di un importo determinato equitativamente dal Tribunale.

Il diritto

ildiritto

Della sentenza richiamata si commenta la sola parte relativa alla valutazione rivolta dal giudice del lavoro ai contenuti del ricorso e da questi ricondotta all'uso di una applicazione diintelligenza artificiale.
Il giudizio ha ad oggetto l'opposizione ad ingiunzione di pagamento che il Tribunale rigetta integralmente nel merito perché infondato, rilevando incidentalmente come il ricorso introduttivo risulterebbe redatto con l'ausilio di una applicazione di intelligenza artificiale che il Tribunale desume dalla lettura del “…coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio – eccezioni tutte manifestamente infondate”.
Dal complesso di queste circostanze il giudice perviene ad un giudizio di scorrettezza e malafede processuale, rilevante ai fini e per gli effetti di cui all'art. 96 comma 4 c.p.c. e determinante la condanna della parte responsabile al pagamento di una sanzione equitativamente determinata in € 500 e da versarsi in favore della cassa delle ammende.

La lente dell'autore

lenteautore

La sentenza si colloca nel più recente orientamento di merito che sembra (per alcuni versi giustamente) mal digerire l'improvvisata presenza nel processo di sistemi di intelligenza artificiale.
Come i precedenti (cfr. Tribunale Brescia ord. 22/7/2025 e Tribunale di Firenze -sez. Imprese. ord. 14/3/2025) anche questa non si fonda su posizione preconcetta di contrarietà all'uso dell'IA, ma se ne distacca nella parte in cui si completa con un severo stigma rivolto al difensore di una delle parti, reo di mala fede processuale o colpa grave per aver proposto un giudizio manifestamente infondato, instaurandolo con un ricorso redatto dall'intelligenza artificiale. 
A ben vedere sembra che di questo ultimo profilo non vi sia modo di reperire alcun riferimento utile a percepire il fondamento della severa decisione. 
Se pare infatti possibile ricondurre la pronuncia sulla responsabilità processuale alla sussistenza dei ragionevoli motivi esplicitati dal giudice (“il ricorrente – si legge - ha proposto opposizione nei confronti di avvisi di addebito tutti notificati in precedenza, già oggetto di plurimi atti di esecuzione anch'essi tutti regolarmente notificati”) non vi è invece modo di riscontrare un solo elemento che renda certa la provenienza del ricorso introduttivo da un sistema di intelligenza artificiale.
Non certa può ritenersi quell'annotazione riferita alla generica e non meglio precisata giurisprudenza esposta a sostegno della difesa (“Il ricorso al contrario – si legge - contiene una mera .......elencazione di precedenti giurisprudenziali senza alcuna allegazione riguardante il caso in esame”) che finisce però per costituire l'unico elemento che comanda il grave giudizio sulla superficialità dei contenuti del ricorso (“…coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio – eccezioni tutte manifestamente infondate”), idealmente imputabile alla scarsa qualità professionale del difensore e non necessariamente – come invece conclude il giudicante – ad un sistema di intelligenza artificiale.
È per questo motivo che, al netto dell'ormai immancabile richiamo all'intelligenza artificiale, il Tribunale abbia fondato la determinazione sulla responsabilità aggravata sulla base dell'assoluta infondatezza di tutte ed ognuna delle eccezioni esposte nel ricorso, lasciando così a margine la componente informatica pur menzionata.
La sentenza rafforza il concetto già espresso in occasione degli altri commenti rivolti ai precedenti citati nella sezione introduttiva. 
L'intelligenza artificiale non è un gioco informatico e presto sarà definitivamente normata – con riferimento al suo utilizzo in ambito processuale - da specifiche disposizioni di legge. 
Fino ad allora pare inutile improvvisare pericolosi esperimenti che, in questo caso aumentano il livello del rischio di responsabilità professionale e deontologica del difensore derivante dall'incondizionato affidamento all'intelligenza artificiale.
Si tratta di un rischio che trova pratica applicazione nelle recentissime disposizioni della Legge 23 settembre 2025, n. 132 (rubricato Disposizioni e deleghe al Governo in materia di intelligenza artificiale), destinata alla vigenza dalla data del 10 ottobre 2025 e che comprende l'inequivoco obbligo per il professionista (ergo per l'avvocato) che intenda far uso di sistemi di intelligenza artificiale, di fornire preventiva informativa al proprio cliente mediante “linguaggio chiaro e semplice” in modo da garantire all'utente la conoscibilità dei relativi rischi e il diritto di opporsi ai trattamenti autorizzati dei propri dati personali.

Documenti correlati