Intelligenza artificiale generativa: GPT o chatGPT  verso  ipotesi di ragionamento automatici e  linguaggio artificiale. Tra l’argomentazione giuridica di Bobbio ed il  principio di precauzione.  

di Irene Coppola

ABSTRACT:  Questo lavoro tende  a metter in risalto la necessità di un bilanciamento tra  efficienza e giustezza dell’attività giuridica. Nel  rapporto relazionale tra automatismo ed  intenzionalità, ovvero tra atto meccanico ed atto volitivo, complesso appare l’ambito dell’intelligenza artificiale in un campo in cui  il giurista  è  il protagonista  ratione materiae. L’attenzione o la  preoccupazione sono rivolte  ancor di più all’intelligenza generativa che si auto-completa in modo autonomo e imprevedibile a priori nella  produzione di dati, simulando ragionamenti e linguaggio in un ambito in cui necesse est argomentazione giuridica e principio di precauzione.   

 

SOMMARIO: 1. Prolegomeni; 2.- Dall’intelligenza artificiale classica, all’intelligenza artificiale  generativa; 3. GTP e chatGPT: valori giuridici o valori algoritmici?;  4. Conclusioni.

 

  

  1. Prolegomeni

Lo stato dell’arte sul tema oggetto di questa breve investigazione è dato, in buona sostanza,  dal dibattito acceso  sul se e sul come  adoperare strumenti di intelligenza artificiale in campo giuridico sulla scorta del dato comune derivante dalla consapevolezza che l’intelligenza artificiale realizza sistemi informatici in grado di simulare “alcune capacità tipicamente umane” e nell’attesa di un microsistema normativo-  nella misura data dalla concreta necessità di meritevolezza degli interessi da tutelare- per regolamentare il fenomeno   robotico.[1]

Il funzionamento operoso  dei sistemi di A.I. dipende dal fatto che riescono a processare enormi quantità di dati, in quanto in grado di creare schemi ricorrenti che vengono usati per fare previsioni;  nell’informatica, per descrivere i modelli di apprendimento automatico, si parla di reti neurali intesi come  modelli matematici progettati per riprodurre, pur con differenze notevoli rispetto  alle reti neurali biologiche,[2] il comportamento dei neuroni, utilizzando degli algoritmi in grado di analizzare grandi quantità di dati in parallelo.[3]

Il problema appare  ancor più complesso e delicato quanto maggiormente  la linea di confine tra i valori giuridici diventa labile in  ordine a  valori  algoritmici; innegabile la dicotomia tra certezza del dato normativo che si esprime nella proposizione del comando, del divieto e della sanzione con riferimento ad una precisa fattispecie formulato dal legislatore e l’incertezza di un dato inserito da un indeterminato operatore  in un calcolatore algoritmico senza severe attività di censura, controllo e monitoraggio.

Questo aspetto crea severe perplessità per gli studiosi in una disciplina particolare come è quella giuridica in cui l’attività di interpretazione, di applicazione e di sussunzione diventa elemento costante dell’attività umana del tutto slegata dall’apprendimento di una macchina che non ha capacità di “sentire” e applicare la regola ad un caso concreto, se non in modo  meccanico, avvalendosi solo ed esclusivamente del  dati che, in un modo o nell’altro, ne esprimono il contenuto.

Ed è questa assoluta relatività che spaventa e preoccupa i giuristi.

Vero è che non è una novità la tecnologia e forse, proprio per questo, se da un lato occorre prestare attenzione a tutte le innovazioni – soprattutto in epoca di transizione digitale – dall’altro una accoglienza entusiastica va sicuramente ridimensionata in ragione del fatto che molti incagli giustiziali derivano non solo dalla mole di lavoro e, quindi, di contenzioso, ma anche dall’insufficienza o inefficienza di un metodo che va rivisto e rivisitato nella sua interezza alla luce delle attuali istanze di giustizia.[4]

Sta di fatto che  spesso la tecnologia ha cambiato la nostra vita anche con notevoli benefici: basti pensare alla ruota, che ha sostituito gli animali da traino consentendo più agili percorsi, senza però incidere sull’impianto codicistico in termini di responsabilità civile, il che appare controverso con la  diffusione dell’A.I. che non intende limitarsi alla sostituzione del bue, ma, con molta probabilità, tende ad  incidere anche sulla direzione del percorso e addirittura a sostituire anche chi conduce o guida il bue .

Ed il  problema nasce  proprio quando le tecnologie moderne fanno  passi forse troppo audaci; in altri termini  quando le  tecnologie sono dirompenti o  invasive   non ci resta che comprendere la portata delle ipotesi  di innovazione e controllarne i limiti ed  i confini affinché non vi sia un effetto tossico delle stesse in un sistema così articolato, complesso e sensibile, come  quello giuridico.

 

 

  1. Dall’intelligenza artificiale classica, all’intelligenza artificiale generativa.

L’approccio del giurista  è naturalmente e tendenzialmente  portato a   fornire  la  nozione per  inquadrare la fattispecie in categorie concettuali, anche e soprattutto se nuove o se costituenti  rinnovamento.[5]

Ed allora, per  entrare  in medias res  occorre chiedersi cosa intendere, ontologicamente, per intelligenza artificiale  in primis  e per intelligenza artificiale  generativa, in secundis, e come  inquadrare il fenomeno in diritto sulla scorta dell’impianto  del codice  tradizionale.

Inutile ripetere che la definizone “informatica-ingegneristica” di A.I. è chiara come evidenzia M. Somalvico[6]:  «l’intelligenza artificiale è una disciplina appartenente all’informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.»;

essa, però, appare controversa e pluriforme, forse proprio perché manca un quadro normativo preciso, in area giuridica.[7]

Come dato oggettivo si prendano in considerazione, per intuibile ragione, non da ultima di carattere geografica o meglio geopolitica, le fonti europee per avvertire sensibilmente quanto ondivago sia il tema, in continuo divenire.

Il Parlamento Europeo nel 2017 individuava le caratteristiche di una intelligenza artificiale  nella ricerca dei seguenti elementi:

– ottenimento di autonomia grazie a sensori e/o mediante lo scambio di dati con il suo ambiente (interconnettività) e lo scambio e l’analisi di tali dati;

– autoapprendimento dall’esperienza e attraverso l’interazione (criterio facoltativo);

– almeno un supporto fisico minore;

– adattamento del proprio comportamento e delle proprie azioni all’ambiente;

– assenza di vita in termini biologici.[8]

La proposta di regolamento  contenuta nella risoluzione del Parlamento europeo del 20 ottobre 2020 offre altra definizione ed, in particolare,  per  intelligenza artificiale  si esprime un  «sistema basato su software o integrato in dispositivi hardware che mostra un comportamento che simula l’intelligenza, tra l’altro raccogliendo e trattando dati, analizzando e interpretando il proprio ambiente e intraprendendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici»59

Centrale, dunque, appare essere il raggiungimento di un obiettivo specifico.

A seguire,  la  Commissione europea che, nell’esercitare l’iniziativa legislativa per l’Artificial Intelligence Act, dal sistema  hardware si sposta  verso  «un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I e che può, per una data serie di obiettivi definiti dall’uomo, generare risultati quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono».

Quando ancora il dibattito sulla definizione terminologica dell’A.I. è  acceso, già si assiste ad una nuova declinazione di essa attraverso l’intelligenza artificiale auto-generativa o generativa.

Per intelligenza generativa non sembra risultare alcuna definizione specifica, in special modo  in punto di diritto, all’interno di Regolamenti o di Risoluzioni anche a livello Europeo.

Allora si procede con concetti di derivazione: trattasi di algoritmi  che consentono di creare immagini, ovvero dati  più strutturati,ovvero  suoni, video, ovvero sistemi di  machine learning, elaborazione del linguaggio naturale (natural language, processing, NPL) o elaborazione di immagini digitali (computer vision) con un elemento caratteristico;  in definitiva l’elemento caratteristico dell’ A.I. generativa consiste in un meccanismo di auto- completamento.

Essa riesce, in forza dei dati che sono stati inseriti (ad es. l’input testuale di una storia o la richiesta di esecuzione di un comando del tipo “Scrivi un programma che calcoli la media di questa distribuzione di dati”), a completarli  in modo plausibile ( e il più delle volte corretto).

La funzione di auto-completamento la rende  diversa rispetto all’ A.I. tradizionale.

In definitiva con l’intelligenza generativa si assiste ad  una sorta di  partenogenesi o di gemmazione: si utilizzano i dati inseriti per generarne altri .

Interrogarsi sulla natura giuridica di queste nuove energie algoritmiche appare essere cosa buona e giusta per il giurista in ragione del fatto che l’inquadramento nella categoria prestabilita dal legislatore ne consente anche di studiarne e valutarne la disciplina.[9]

Operazione non sempre facile  che  accentra la discussione sulla categoria soggettiva o su quella oggettiva.

Non indugiando per evitare di uscire fuori campo, seppur in modo consapevolmente semplicistico, va rilevato che prendere le mosse  dal concetto di soggetto giuridico  significa aprire a discussione sulla capacità del soggetto artificialmente intelligente che impatta sulle categorie concettuali ben note; se, invece,  si arriva  a fare un  focus sull’oggetto si comprende meglio che trattasi di oggetti comunque nella disponibilità dell’uomo e che vanno monitorati e controllati intesi come beni-supporto per lo svolgimento di attività di rilevanza sociale.[10]

Un punto di domanda va posto:  è possibile per l’A.I. generativa una configurazione più vicina o maggiormente compatibile con la soggettività?

La risposta è no. Questi sistemi non hanno alcuna ” soggettività”  o ” intenzionalità” nel loro atto generativo. Il “soggettivismo”  è tecnicamente impossibile ( corrisponderebbe alla posizione  nota in letteratura come ” Strong AI” o ” Intelligenza Artificiale forte” proposta dal filosofo Searle).

Searle sostanzialmente mostra come sia di fatto impossibile per questi sistemi una qualsiasi forma di intenzionalità. Oggi, infatti, tutta la ricerca si focalizza sull’approccio della cosiddetta ” AI debole” (“weak AI”), che corrisponde tecnicamente alla posizione ” oggettivista” in ambito giuridico.[11]

Ancora non siamo in grado di dare una risposta univoca che vada oltre speculazioni meramente astratte ed esercizi di pensiero  che non trovano humus nella  realtà pratica del fenomeno fattuale.

 

 

  1. GTP e chatGPT: valori giuridici o valori algoritmici?

Ritornando sul tema, come detto, se appare vivo il dibattito per l’A.I.  lo è ancora di più nei confronti del GTP o chat GTP: intelligenza generativa  che occupa  l’ambito della generazione di testi basati su sistemi di  reti neurali di tipo Transformer.

Il significato letterale di Chat GPT è  Generative Pre-trained Transformer, traducibile in  sistema di dialogo basato su un Transformer  generativo pre-addestrato.

Il prototipo è stato sviluppato da OpenAI, un ente no profit fondato da Elon Musk nel 2015.[12]

Per comprendere meglio il fenomeno, chat GPT, in definitiva, occorre ricordare che trattasi di un potente strumento di elaborazione  che può essere utilizzato non solo per rispondere a degli input in un linguaggio naturale, ma anche per completare o suggerire testi sulla base di input parziali; il che permette di generare descrizioni, titoli ma anche accuratissime traduzioni multilingue istantanee;  riassumere testi,  analizzare il sentiment del testo, consentendo di determinare se un testo è positivo, negativo o neutro ( senza trasparenze di dati e/o fonti). [13]

A questo punto non possiamo esimerci da una domanda.

Se la chat GPT costituisce un algoritmo con materiale empirico, inconoscibile a priori, in autoapprendimento induttivo dell’apparato, come può essere compatibile con la disciplina giuridica che si  atteggia in ragionamenti logici e sistematici di carattere deduttivo ed induttivo?[14]

Ed allora  più che mai appare  opportuno, se non necessario, ritornare  alla riflessione che per un verso induce a considerare l’attività del giurista come attività logica- accostando il diritto alla matematica  ed individuando il rigore come obiettivo della giurisprudenza- dall’altro persuade verso la configurazione dell’attività giuridica come arte governata da intuito, buon senso, prudenza, equità, tutti elementi costanti ed imprescindibili del divenire della giurisprudenza stessa nella sua evoluzione progressiva.

In altre parole, una dicotomia tra giurisprudenza ragionata e formalmente matematica ed una giurisprudenza libera ed intuitiva sorretta da valutazioni concrete e calzanti di carattere equo; dicotomia  ancora più sensibile ed interessante in un sistema di civil law in cui la norma è una proposizione culturale,[15] e che vive e funziona sganciato da precedenti, seppur innegabilmente  e tendenzialmente sostenuto dagli orientamenti; e, fermi sul campo dell’indagine, se quello del giurista è un ragionamento giuridico che si fonda su giudizi di valori,  va da sé che l’algoritmo non può essere conformante ad un tipo paradigmatico di giudizio a ragionamento giuridico, attesa la impostazione di Kelsen  che oscilla  tra giudizio  di valore ( la norma è giusta ) e  giudizio di  validità (la  norma è legittima).

Se trasferiamo  questa  considerazione  in materia di intelligenza artificiale e di sistemi robotici c’è da chiedersi se  l’algoritmo-  di cui si dubita fortemente soprattutto in ordine all’uso del linguaggio giuridico-   sia in grado di verificare  non tanto  il valore della giustezza   – che comunque afferisce,  per esempio,  alle norme  che trovano già  attestazione di validità per essere state inserite in un codice-  quanto  il valore della validità  che si  esprime e rappresenta  attraverso  l’interpretazione di dati forniti da elementi di carattere giurisprudenziale.

Ed allora ritorna vivo il  dibattito di Bobbio ben concretizzato nell’esempio delle porte: ” Mi trovo di fronte alla proposizione prescrittiva” Chiudi la porta”. Ma nella stanza in cui mi trovo vi sono due porte aperte: Può darsi che io riesca a risolvere il dubbio per via deduttiva, ricorrendo ad altra norma generale, la quale stabilisca che ” bisogna chiudere tutte le porte che danno sul corridoio” e delle due porte nella stanza una sola dà sul corridoio. Ma se questa prescrizione generale non esiste, non è detto che io debba rinunciare a cercare una soluzione del problema, né  tantomeno che debba accogliere una delle possibili soluzioni seguendo il mio capriccio. Preclusa la via della deduzione, ne rimane aperta la via della induzione. Mi trasformerò  pertanto in istorico e mi darò a cercare chi ha emesso quel comando, in quali condizioni, per quali ragioni. Ricaverò certamente alcuni argomenti i quali mi permetteranno di stabilire, non come una conseguenza necessaria, ma con maggiore o minore probabilità, quale delle due porte dovrà essere chiusa. Il giurista applica entrambe le tecniche, quella della ricerca genetica e quella  finalistica, per la comprensione delle norme giuridiche: chiama la prima interpretazione storica, la seconda interpretazione teleologica. E in quanto si serve di queste due tecniche opera come uno storico  o un  sociologo i quali mirano ad intendere  ( wersthen) i fatti umani. Il campo della ricerca che qui si apre  è regolato non più dalla logica deduttiva, ma da quella induttiva”.[16]

Deriva naturale ed ovvia una chiosa.

In questo ambito come si colloca l’A.I.  se il momento del dicere ius rappresenta un compendio di una serie di elementi non racchiudibili in algoritmi quando appare necessario transitare da un ragionamento deduttivo ad un ragionamento induttivo e non appare più sufficiente ( e forse non lo è mai stato) accettare l’assioma del  maggior dato uguale a maggiore probabilità di soluzioni?

Non solo.

In questa  breve indagine abbiamo pensato di procedere in una esperienza, perché è l’unico modo che consente al giurista la possibilità di verificare cosa succede.

Abbiamo attivato e  chiesto alla  chatGPT  la definizione del possesso e la differenza tra possesso e proprietà.[17]

L’A.I. risponde, in sostanza, che  il possesso è un atto di controllo e  la proprietà insieme di diritti e degli obblighi  associati alla proprietà. Alla domanda: “conta di più il possesso o la proprietà”(?), la chat GPT risponde, in sintesi che in alcuni casi il possesso può essere equivalente alla proprietà;  alla domanda: “dimmi la differenza tra diritto d’uso e diritto di servitù”, la chat CPT risponde, in buona sostanza che l’ uso è diritto di utilizzare proprietà   e la servitù è un onere su proprietà a vantaggio di una persona. Abbiamo pensato di continuare con un’altra domanda semplice[18]: “Tizio ha un credito verso Caio come può tutelarsi”?; l’ A.I.  risponde, tra l’altro,:  può tutelarsi attraverso un’azione di risarcimento danni o un’azione di risarcimento del debito”; se si domanda alla chat GPT di riferire circa l’esistenza in vita della regina Elisabetta, la chat  risponde  che  è  viva.[19]

Evidenti, dunque, sono  le criticità di questa  intelligenza artificiale .

Se su casi e domande semplici si comporta così, come possiamo attribuire significato o rilevanza giuridica nella valutazione di casi  concreti attraverso un algoritmo?

Se la norma non è un dato ma un costruito, se la sua costruzione suppone un percorso argomentativo induttivo e valutativo, se- come sostiene Bobbio- la norma è una proposizione culturale, allora  risulta incoerente ridurla alla dimensione di un semplice input informatico.

La norma diventa, nella dinamica storica-applicativa della articolata proposizione- valore di diritto positivo; essa è liquida nella misura in cui diventa permeabile, elastica ed adatta al mutare dei fatti (non per niente il nostro codice del 1942 resta ancora assolutamente idoneo ed adeguato verso soluzioni concrete in punto di diritto, ragionevoli e logiche); l’algoritmo, per contro, in quanto macchina,  non ha la percezione del valore; esso è  una frequenza di elementi.

Ed allora argomentazione e fatto storico, percorso motivazionale e fatto umano, sono  sottratti a giochi matematici di cui non  si hanno istruzioni.

 

 

  1. Conclusioni

Dietro  la  narrazione  della certezza e dell’isolamento dell’errore, o come ormai si afferma, della calcolabilità del diritto, si cela il mito della robotica e delle imprese di produzione robotica.

Se è vero che non possiamo trascurare l’A.I.,  atteso che probabilmente in un prossimo futuro le intelligenze artificiali  entreranno a far parte della nostra vita in modo prepotente, è  pur vero che  il giurista ha il compito precipuo di  porre confini e  limiti, al fine di controllarne l’applicazione corretta anche dal punto di vista etico.[20]

Il nostro è un sistema complesso fatto di fonti, di norme, di interpretazione, di attività umana;  occorre avere il controllo di quello che accade e trovare spazio a regolamentazione  di settori  sensibili per evitare mostruosità giuridiche,  nell’apprendimento di un modello informatico.

Ed allora va condiviso quanto affermato da Passagnoli con riferimenti al sistema giuridico: ” Esso, come sappiamo, è connotato dalla pervasiva presenza delle clausole generali e, ancor più, nel sistema multilivello delle fonti, è caratterizzato dalla perdita di fattispecie degli istituti, ormai attratti nell’ambito diretto di applicazione dei principi, i quali, nell’esperienza delle Corti, tendono ad affrancarsi dalla mediazione delle regole. E’ un fenomeno complesso che, mentre si allontana dal modello irreale della separazione dei poteri, consegna al giurista un più intenso compito valutativo ed un accresciuto onere argomentativo, che rendono incongrua l’idea stessa – a prescindere dal sopravvenire della sua possibilità tecnica – di qualsivoglia automatismo. [21]

Nel rapporto tra tecnologia e diritto, appare, dunque del tutto condivisibile al momento la funzione ordinante del diritto  sottolineata di Passagnoli[22] il dominio della tecnica, specie in una fase, come la attuale, di vera e propria rivoluzione industriale, tende alla supremazia o quanto meno alla autoreferenzialità.

Nel rapporto di bilancio costi e benefici, il giurista non può e  non deve soccombere sotto la spinta di ragioni economiche.[23]

Ed allora mi piace concludere richiamando il titolo dell’indagine e citando il principio di precauzione .

Come è noto il principio di precauzione, benché citato dall’art. 191 TFUE solo in materia di protezione dell’ambiente, è reputato dalle istituzioni europee di portata generale. In tal senso è esplicita la posizione della Commissione, che già con una Comunicazione del febbraio 2000 (COM/2000/0001 in eur-lex.eu), pur rappresentandosi la centralità del dilemma di equilibrare la libertà e i diritti degli individui, delle industrie e delle organizzazioni con l’esigenza di ridurre i rischi di effetti negativi per l’ambiente e per la salute degli esseri umani, degli animali e delle piante”, si è espressa nel senso che l’ambito di applicazione del principio sia molto più ampio, investendo tutte le ipotesi nelle quali una “preliminare valutazione scientifica obiettiva indica che vi sono ragionevoli motivi di temere che i possibili effetti nocivi” possano essere incompatibili “con l’elevato livello di protezione prescelto dalla Comunità”.

Sull’intensità applicativa di tale principio, la Corte di Giustizia ha poi assunto, con specifico riferimento ai medicinali per uso umano, un atteggiamento indubbiamente rigoroso, affermando che i rischi per la salute, “non devono avere necessariamente un carattere concreto, ma esclusivamente potenziale”, nel senso che “quando sussistono incertezze riguardo all’esistenza o alla portata di rischi per la salute delle persone, possono essere adottate misure protettive senza dover attendere che siano esaurientemente dimostrate la realtà e la gravità di tali rischi.

In particolare, qualora risulti impossibile determinare con certezza l’esistenza o la portata del rischio asserito a causa della natura insufficiente, non concludente o imprecisa dei risultati degli studi condotti, ma persista la probabilità di un danno reale per la salute nell’ipotesi in cui il rischio si realizzasse, il principio di precauzione giustifica l’adozione di misure restrittive” (Corte di Giustizia, 10 aprile 2014, Acino AG contro Commissione europea, in eur-lex.eu).

Ma il principio di precauzione non può essere limitato solo ed esclusivamente ad una interpretazione riduttiva ( e non tanto) circa il diritto alla salute degli esseri umani.

Esso è tutela per l’ampia connotazione dei diritti  dell’uomo; la precauzione è un comportamento diretto ad evitare un pericolo imminente o possibile[24], un accorgimento, un essere cauto  ed allora  non può non trovare spazio applicativo all’interno della corretta interferenza dell’A.I. con il mondo giuridico quando al centro vi sono diritti umani fondamentali.

Ed allora il giurista sta al diritto, come la luce sta ai quadri di Caravaggio.

Ed è questa luce che non deve mai mancare.

[1] Gli apparati capaci di “leggere e comprendere” testi giuridici, formulando pareri, anche analitici, si moltiplicano e le più grandi legal firm internazionali ne dispongono: cfr. K. D. ASHLEY, Artificial Intelligence and Legal Analytics, Cambridge University Press, Cambridge, 2017, pp. 350-391. Ma, in generale, sui rischi dei sistemi predittivi, cfr. S. BAROCAS, A. D. SELBST, Big Data’s Disparate Impact, in California Law Review, 2016, 104, p. 674 ss.

[2] A. LIETO, Cognitive Design for Artificial Minds, Routledge/Taylor & Francis, 2021, pp. 1-136, passim.

[3] U. RUFFOLO, Il problema della personalità elettronica,  in  Journal of Ethics and Legal Technologies  n. 2/2020; U. RUFFOLO, Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless: verso una “responsabilità da algoritmo”?, in Intelligenza artificiale e responsabilità, (a cura di)U. Ruffolo, Milano, 2017,p. 1 ss.; A. AMIDEI, Robotica intelligente e responsabilitàprofili e prospettive evolutive del quadro normativo europeo, in Giur.it, 2021 pp. 88- 100 e ss.

[4] I. COPPOLA,  Capitale umano e decisioni robotiche, Napoli, 2019,  passim

[5] Cosa debba intendersi per Intelligenza artificiale è controverso come illustra analiticamente G. TEUBNER, Soggetti giuridici digitali, a cura di P. FEMIA, Napoli, 2019, p. 19 e ss.

[6]M. SOMALVICO,  F. AMIGONI,  V. SCHIAFFONATI,  Intelligenza Artificiale, in Petruccioli Sandro (a cura di), Storia della scienza vol. IX, Roma, Istituto della Enciclopedia Italiana, 2003, pp. 615-624.

[7] V. MAYER SCHÖNBERGER, K. CUKIER, Big Data: a Revolution That Will Transform How We Live, Work, and Think, New York, Harcourt, 2013, passim; A. MANTELERO, AI and Big Data: a blueprint for a human rights, social and ethical impact assessment,  in COMPUTER LAW & SECURITY REPORT, 2018,  pp. 754-772.

assessment, in Computer Law and Security Review, 2018, 34, 4, p.754; Guidelines on the Protection of Individuals with regard to the Processing of Personal Data in a world of Big Data, Consultative Committee of the Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data, Strasburgo, 2017.

[8] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, P8_TA(2017)0051, Responsabilità, , lett. AB.

[9] A. SANTOSUOSSO, C. BOSCARATO, F. CAROLEO, Robot e diritto: una prima ricognizione, in Nuova giur. civ., 2012, 7-8, 2494; . N. IRTI, E. SEVERINO, Dialogo su diritto e tecnica, Bari, 2001, passim.

[10] La materia è stata, di recente, rielaborata ex professo da Gunther Teubner, che formula un proprio criterio di soluzione, che per la completezza del suo assunto, può considerarsi paradigmatico dell’approccio favorevole alla soggettività, da in in quale norma essa potrebbe essere inquadrata in ragione di una interpretazione evolutiva e dinamica? Col discutibile risultato di alleviare o escludere la responsabilità dell’ideatore, del produttore, del fornitore, rispetto al modello attualmente offerto dalla stessa DIR 85/374/CEE (come modificata dalla 1999/34/CE ), da noi recepita nel Codice del Consumo.

[11] Sul punto affermativa è la posizione di A. LIETO, Cognitive Design for Artificial Minds, Routledge/Taylor & Francis, 2021, passim.

[12] Per analizzare il dataset, nel caso di Chat GPT, sono stati utilizzati 175 miliardi di parametri. Possiamo identificare un parametro come la connessione tra un neurone e l’altro della rete neurale alla base del modello stesso.

[13] R. DALE, GPT-3: What’s it good for? in Natural Language Engineering, Cambridge University, vol. 27,  gennaio 2021, pp. 113-118.

[14]  Il  Tribunale di Brescia ha proposto A.I. per i processi il cui valore resti contenuto in un margine di costi.

[15] N. BOBBIO, Sul ragionamento dei giuristi, in Rivista Dir. Civ. 1955, p. 5; C. PERELMAN, Rhetorique et  Philosophie, Paris, 1952, p. 39 e passim sul contrasto tra argomentazione giuridica ed argomentazione retorica.

[16] N. BOBBIO, Sul ragionamento dei giuristi, in Rivista Dir. Civ. 1955, p. 11,12.

[17] Esperimento del  dì 10 febbraio 2023.

[18] Esperimento del  dì 10 febbraio 2023.

[19] Esperimento del dì  11 febbraio 2023.

[20] C. PERLINGIERI, L’incidenza dell’utilizzazione della tecnologia robotica nei rapporti civilistici, in Rass. dir. civ., 2015, 4, p. 1235 ss secondo cui gli interessi della robotica non possono prevalere sulla tutela della persona.

[21]G. PASSAGNOLI, Ragionamento giuridico e tutele nell’intelligenza artificiale in Persona e Mercato n. 3 del 2019, p.  84

[22] G. PASSAGNOLI,  Ragionamento giuridico e tutele nell’intelligenza artificiale  in Persona e Mercato n. 3 del 2019, p. 79-85.

[23]  N. IRTI, E. SEVERINO, Dialogo su diritto e tecnica, Bari, 2001, passim.

[24] Devoto-Oli, Il vocabolario dell’italiano contemporaneo, 2021.