Sulla produzione in giudizio di un output generato dall’IA (“conversazione con ChatGPT”) non qualificabile come “documento” in senso processual‑civilistico [Tribunale di Ferrara 4 marzo 2026]

di Maria Cristina Breida

La produzione in giudizio di un output generato dall’IA (“conversazione con ChatGPT”) non è qualificabile come “documento” in senso processual‑civilistico e deve ritenersi tamquam non esset, non assumendo neppure valore di prova atipica, attesa l’intrinseca inaffidabilità di tali output e il rischio di “allucinazioni”.

Chiamato a pronunciarsi su un ricorso per consulenza tecnica preventiva ai fini della composizione della lite, volto ad ottenere un accertamento tecnico sulla dinamica e sulle quote di responsabilità di un sinistro stradale mortale, il Tribunale di Ferrara, dopo aver sinteticamente richiamato natura, finalità e presupposti di applicazione dell’istituto di cui all’art. 696 bis c.p.c., ne ha dichiarato l’inammissibilità.

La sentenza appare di particolare interesse – trattasi, a quanto consta, del primo precedente specifico sul tema – nella parte in cui prende posizione sulla valenza probatoria di una produzione denominata “conversazione con ChatGPT”.

Il Tribunale, nell’affermare l’irrilevanza processuale della produzione, osserva, in primo luogo, che nel ricorso non è chiarito lo scopo della produzione né la valenza probatoria che la parte intendeva attribuirle, in tal modo rendendo non intelleggibile la sua concreta utilità. Il documento è ritenuto palesemente parziale e potenzialmente fuorviante, stante la mancanza del quesito (prompt) oggetto della richiesta formulata all’IA.
Il Tribunale evidenzia inoltre che i precedenti richiamati dal documento generato dall’IA risultano non pertinenti rispetto alla fattispecie e, su tali basi, esclude che la produzione possa essere considerata un “documento” inteso in senso processual‑civilistico, qualificandola viceversa  come tamquam non esset, e negando che ad essa possa attribuirsi valenza di prova atipica. La motivazione si innesta sul rilievo più generale dell’inaffidabilità intrinseca dei riferimenti giurisprudenziali generati da IA, esposti al rischio di “allucinazioni” e della necessità di un uso responsabile degli strumenti di IA.