Per utilizzare questa funzionalità di condivisione sui social network è necessario accettare i cookie della categoria 'Marketing'
Crea PDF

Avvocato sanzionato per l’uso di un applicativo di intelligenza artificiale

  

Un avvocato di New York è stato sanzionato dal giudice, davanti al quale egli aveva presentato un documento processuale, pieno di riferimenti a precedenti sentenze, su temi similari, del tutto inesistenti. Il giudice ha ritenuto questo comportamento gravemente offensivo ed ha sanzionato questo avvocato.

 

I lettori certamente sono al corrente del fatto che più volte li ho messi in guardia sull’utilizzo di applicativi di intelligenza artificiale, soprattutto di tipo generativo, per il fatto che l’esperienza mostra che questi applicativi talvolta inventano fatti e situazioni.

 

Con l’occasione, rammento che in tutti i capitolati che scrivo, da qualche tempo inserisco sistematicamente la clausola che impegna il partecipante alla gara a non inserire nella propria offerta alcun testo, che sia stato elaborato proprio da questi applicativi.

 

Pubblicità
La progettazione delle sale di controllo: la serie ISO 11064 ed altre norme - eBook in pdf
Approfondimento della normativa ISO 11064 e altre norme per la progettazione delle sale di controllo, a cura di di Adalberto Biasiotti.



Prima di passare ad illustrare il fatto in questione, è bene ricordare che nei paesi anglosassoni i procedimenti giudiziari sono basati sulla cosiddetta “common law”, a differenza di quanto avviene in Europa, dove i procedimenti giudiziari sono basati sulla cosiddetta “civil law”, che scaturisce dal diritto romano.

 

Nei procedimenti giudiziari, secondo la common law, le precedenti sentenze su temi similari rappresentano un punto di riferimento fondamentale, per guidare le valutazioni effettuate dal giudice, sul processo in corso.

 

Per questo motivo, gli avvocati dei paesi anglosassoni hanno a disposizione dei database giganteschi, dove tutte le sentenze sono state archiviate, con chiavi di riferimento, in modo da facilitare la ricerca di sentenze, su temi similari a quelli in causa, che possono aiutare il giudice delle sue decisioni.

 

Ecco i fatti.

 

Ci troviamo davanti ad un soggetto, che ha attivato una causa contro una compagnia aerea, sostenendo di avere subito delle ferite durante un volo.

 

Il suo avvocato ha presentato al giudice un documento, che citava numerose sentenze, tentando di provare, usando questi precedenti, che il proprio assistito aveva pienamente ragione nell’attivare questa causa.

 

Tuttavia, gli avvocati della compagnia aerea hanno scritto al giudice, segnalando che essi non erano riusciti a trovare molte delle sentenze, che erano state citate nella memoria dell’avvocato, che difendeva la vittima delle presunte ferite.

 

Successivi approfondimenti hanno permesso di mettere in evidenza che il documento era stato preparato da un collaboratore dell’avvocato, utilizzando un applicativo generativo di intelligenza artificiale. Il giudice della causa è rimasto talmente turbato dall’accaduto, che ha chiamato a deporre il collaboratore, che aveva sviluppato la memoria. Il collaboratore ha dichiarato di aver “interrogato” l’applicativo di intelligenza artificiale, chiedendo di verificare se, ad esempio, una sentenza, che riguardava una compagnia aerea cinese, realmente esistesse. L’applicativo ha risposto dicendo che la sentenza esisteva e poteva essere trovata sui database di riferimento legale, come LexisNexis e Westlaw. Non mi chiedete perché l’avvocato non ha fatto un controllo autonomo!

 

Il giudice ha dato due giorni a disposizione allo studio legale per presentare adeguate motivazioni, che potessero indurlo a bloccare la sua decisione di infliggere una sanzione di 5000 $ per questo comportamento. Le motivazioni presentate sono state ritenute del tutto insoddisfacenti e la sanzione è stata inflitta.

 

Gli esperti di applicativi di intelligenza artificiale hanno chiamato questi fenomeni, che si sono verificati anche in altri contesti, “allucinazioni”. Al proposito, Google ha modificato il proprio applicativo di intelligenza artificiale generativa, dopo che esso aveva affermato che le rocce potevano essere bevute.

 

Ancora una volta: attenti, attenti, attenti!

 

Adalberto Biasiotti

 




I contenuti presenti sul sito PuntoSicuro non possono essere utilizzati al fine di addestrare sistemi di intelligenza artificiale.

Per visualizzare questo banner informativo è necessario accettare i cookie della categoria 'Marketing'

Pubblica un commento

Rispondi Autore: Graziano Frigeri - likes: 0
29/07/2024 (08:06:41)
Giusta la raccomandazione "Attenti". Si tratta, però, di un comportamento diffuso anche nel nostro settore, seppure in modo più artigianale: ad esempio quando si confezionano DVR con il metodo del "copia e incolla". Scopro" spesso, come Medico Competente cui vengono inviati DVR "per la firma" (orrore!) sensazionali "cantonate" (es: citazioni e riferimenti ad altre aziende ed altre situazioni) oppure, nel capitolo "riferimenti legislativi" (capitolo immancabile, utile solo ad appesantire il documento) lunghi elenchi di norme abrogate da decenni! Questo per dire che se occorre, per l'immediato futuro, fare attenzione all'uso corretto dell'intelligenza artificiale, non meno urgente è porre rimedio alla "dabbenaggine naturale". Buon lavoro a tutti!
Rispondi Autore: Avv. Rolando Dubini - likes: 0
11/08/2024 (00:12:41)
Avvocati multati per l'uso improprio di ChatGPT: un precedente nel mondo legale

Due avvocati di New York, Steven Schwartz e Peter LoDuca, sono stati multati nel 2023 per 5.000 dollari per aver utilizzato casi legali fasulli generati da ChatGPT nella documentazione presentata in tribunale.
Il caso riguardava una richiesta di risarcimento contro la compagnia aerea Avianca Airlines per un presunto infortunio.
Durante il processo, gli avvocati hanno citato diversi precedenti legali per supportare la loro causa.
Tuttavia, il giudice distrettuale di New York, P. Kevin Castel, ha scoperto che almeno sei dei casi presentati erano completamente inventati e creati da ChatGPT, un chatbot di intelligenza artificiale.
Il giudice ha definito l'uso di queste informazioni false un atto "consapevole" e in malafede da parte degli avvocati, sottolineando la gravità della situazione.

Secondo il giudice, non c’è nulla di improprio nel ricorrere a ChatGPT o all’intelligenza artificiale in generale nel mondo legale; tuttavia, gli addetti ai lavori devono sempre procedere alla verifica delle informazioni.
La tecnologia progredisce, ma gli avvocati devono svolgere correttamente il loro ruolo di controllo, al fine di garantire che i documenti siano veritieri e accurati.

In questo caso, ai due avvocati è stata riconosciuta la colpa di non aver rispettato le proprie responsabilità, non tanto per aver fatto ricorso a ChatGPT, ma per non aver controllato se quanto affermato dal chatbot fosse vero.

Schwartz, che ha preparato la documentazione, si è dichiarato "mortificato" per aver utilizzato tali informazioni senza verificarne l'autenticità. Ha ammesso di non aver compreso che ChatGPT non è un motore di ricerca tradizionale, ma uno strumento di elaborazione del linguaggio che può generare contenuti plausibili ma non necessariamente veri.

Questo episodio ha sollevato importanti interrogativi sull'uso dell'intelligenza artificiale nella pratica legale. Mentre non è intrinsecamente sbagliato ricorrere a strumenti come ChatGPT, è fondamentale che gli avvocati verifichino sempre le informazioni prima di utilizzarle nei procedimenti legali. La tecnologia può essere un potente alleato, ma non sostituisce la necessità di un controllo accurato e rigoroso delle fonti.

Pubblica un commento

Banca Dati di PuntoSicuro


Altri articoli sullo stesso argomento:


Forum di PuntoSicuro Entra

FORUM di PuntoSicuro

Quesiti o discussioni? Proponili nel FORUM!