News Legal – Tech

di Nicole Monte e Giuseppe Vaciago

ChatGPT viene consultata per la redazione di una sentenza

Un giudice colombiano, che presiede il Tribunale del Primo Circuito nella città di Cartagena, ha apertamente dichiarato di aver utilizzato ChatGPT come supporto per la decisione presa in un caso inerente a una controversia con una compagnia di assicurazione sanitaria per stabilire se un bambino autistico dovesse ricevere la copertura per le cure mediche.

La legge colombiana non vieta l’uso dell’intelligenza artificiale nelle decisioni giudiziarie, ma gli sviluppatori di questa tecnologia però hanno avvertito che, nonostante alcuni recenti aggiornamenti, lo strumento presenta ancora limitazioni significative e non dovrebbe essere utilizzato per prendere decisioni così delicate. Secondo quanto riportato all’interno della documentazione del tribunale, l’IA è stata utilizzata principalmente per accelerare la stesura di una decisione e le sue risposte sono state sottoposte a un controllo a valle di quanto riportato nel testo della sentenza.

Il giudice Juan Manuel Padilla Garcia, in totale trasparenza, ha dichiarato che, tra le altre domande poste, ha chiesto a ChatGPT se “Un minore autistico è esonerato dal pagamento delle spese per le sue terapie?” e “La giurisprudenza della Corte costituzionale ha preso decisioni favorevoli in casi simili?”. Lo stesso Giudice ha commentato “Lo scopo dell’inserimento di questi testi prodotti dall’IA non è in alcun modo quello di sostituire la decisione del giudice. Quello che cerchiamo veramente è di ottimizzare il tempo dedicato alla stesura delle sentenze dopo aver corroborato le informazioni fornite dall’IA”.

Fonte: https://www.vice.com/en/article/k7bdmv/judge-used-chatgpt-to-make-court-decision

Novità in tema di copyright e nuove tecnologie rilevate dal USTR

Il rapporto annuale dell’USTR sui “Mercati noti per la contraffazione e la pirateria”, oltre ad elencare i siti web che rappresentano una minaccia per i creatori dell’industria musicale, mette in evidenza alcune nuove criticità nell’ambito rispetto agli anni precedenti. Vengono, infatti, evidenziati l’aumento dei siti web che permettono tali attività e le crescenti preoccupazioni per il modo in cui i siti di social network come WeChat facilitano la vendita di prodotti che violano il copyright.

In primo luogo, è rilevato l’aumento dei siti di pirateria che utilizzano provider di servizi Internet (ISP) “a prova di bomba”. Gli ISP vengono definiti “a prova di bomba” se sono caratterizzati da termini di servizio che pubblicizzano esplicitamente la clemenza nel consentire ai loro clienti di caricare e distribuire contenuti illeciti. L’altra novità rilevata dal report annuale è la preoccupante proliferazione delle vendite contraffatte facilitate dalle piattaforme di social con ecosistemi di e-commerce integrati. L’USTR cita WeChat di Tencent tra le piattaforme più problematiche, poiché, sebbene sia descritta come uno strumento di comunicazione social, WeChat fornisce un ecosistema di e-commerce che facilita la distribuzione e la vendita di prodotti contraffatti. La funzione di video brevi viene utilizzata per pubblicizzare le merci contraffatte direttamente ai consumatori, che possono acquistare i prodotti presenti nei video tramite una funzionalità di “shopping cart”.

Fonte: https://www.billboard.com/pro/online-piracy-plagues-music-industry-new-methods/

GPT3 entra nel mondo legale

Allen & Overy, uno dei più grandi studi legali del mondo, ha annunciato l’integrazione di un prodotto di intelligenza artificiale (AI) noto come Harvey nella sua attività globale. Harvey si basa su GPT-3 con l’obiettivo di consentire agli avvocati di creare documenti legali o di eseguire ricerche legali con semplici istruzioni.

Harvey è stato sperimentato da Allen & Overy lo scorso novembre sviluppando già 50 lingue e 250 aree di pratica. La capacità di Harvey di lavorare in diverse aree e in più lingue è stata descritta come un’efficienza e intelligenza senza precedenti. Inoltre, durante la fase di prova circa 3.500 avvocati che hanno richiesto informazioni a Harvey per un toltale di circa 40.000 richieste per il lavoro quotidiano dei clienti. Si tratta di quasi un quarto del lavoro quotidiano dello studio e di circa l’80% del lavoro mensile.

I partner di Allen & Overy però hanno già fatto presente che Harvey verrà implementato su base individuale, poiché il prodotto richiede una messa a punto per ogni studio. Esiste anche la possibilità di specializzarsi maggiormente, ottenendo modelli specifici per i casi. In altre parole, è possibile avere un caso per un cliente specifico o un contenzioso particolare, e il modello viene messo a punto per quel contenzioso o transazione.

Fonte: https://www.legal.io/articles/5424733/Allen-Overy-Announces-Legal-AI-Product-Harvey

L’AI non viene accettata in tribunale

Si parla spesso dell’avanzata della tecnologia in tutte le professioni soprattutto di quella legale che in un primo momento era stata la più restia ad approcciarsi a questi cambiamenti, forse proprio per la difficoltà delle tematiche trattate. Il 25 gennaio è arrivata conferma della delicatezza dell’accostamento dell’intelligenza artificiale alla professione forense anche dallo Stato più innovativo e all’avanguardia nel campo: gli Stati Uniti. L’intelligenza artificiale “avvocato” che per la prima volta avrebbe dovuto assistere un imputato in aula a contestare una multa il mese prossimo non sarà ammesso in tribunale (vedasi in proposito le news di gennaio 2023).

Joshua Browder, amministratore delegato di DoNotPay, ha twittato che dopo essere stato minacciato di essere condannato a sei mesi di prigione da parte di alcuni procuratori, DoNotPay per ora si limiterà a fornire un tool a tutela dei diritti dei consumatori.

L’AI – che funziona su uno smartphone, ascolta le argomentazioni del tribunale e formula risposte – era stata originariamente progettata per suggerire all’imputato cosa dire in tempo reale, attraverso le cuffie. Alcuni tribunali consentono agli imputati di indossare apparecchi acustici – alcuni dei quali abilitati al Bluetooth ed è per questa ragione Browder aveva verificato che questo tipo di tecnologia di DoNotPay poteva essere utilizzata senza violare norme di procedura. Tuttavia, è la tecnologia per l’utilizzo di DoNotPay a non essere legale nella maggior parte dei tribunali.

Fonte: https://www.cbsnews.com/news/robot-lawyer-wont-argue-court-jail-threats-do-not-pay/