ChatGPT inserisce citazioni false: praticante legale licenziato

Un giovane ha pensato di affidare il lavoro all’IA, senza manco verificare il risultato finale: sanzionato e poi licenziato

Un giovane laureato in giurisprudenza ha perso il lavoro dopo aver usato ChatGPT per redigere un atto giudiziario che conteneva citazioni giuridiche false. Il caso è avvenuto nello Stato dello Utah, dove la corte ha rilevato per la prima volta la presenza di un riferimento “allucinato” da un’intelligenza artificiale, ovvero un precedente legale mai esistito. L’errore ha portato a sanzioni formali, evidenziando i rischi dell’eccessivo affidamento sui chatbot da parte dei neolaureati. La citazione fasulla, “Royer v. Nelson, 2007 UT App 74, 156 P.3d 789”, è risultata completamente inventata. ChatGPT, interpellato sul caso, ha risposto vagamente, senza fornire dettagli concreti. Un segnale d’allarme chiaro per la magistratura.

Le altre notizie del canale INNOVAZIONE

Avvocati sanzionati, praticante licenziato: le conseguenze dell’errore

Il giudice Mark Kouris, nel suo parere, ha condannato il mancato controllo da parte degli avvocati Douglas Durbano e Richard Bednar, firmatari dell’atto. “Ogni avvocato ha il dovere continuo di garantire la veridicità dei propri atti”, ha scritto. Secondo il giudice, i due hanno fallito nei loro compiti di vigilanza, compromettendo l’integrità dell’atto processuale.

Il praticante, che lavorava senza licenza, non aveva informato lo studio dell’uso dell’IA. L’ufficio legale ha poi riferito che all’epoca non esisteva una policy interna sull’uso dell’intelligenza artificiale. Dopo la scoperta, lo studio ha promesso nuove regole e ha confermato che il praticante è stato licenziato. “Vogliamo rimediare all’errore”, ha dichiarato lo studio alla corte.

Le IA nei tribunali: un rischio sempre più concreto

Secondo Kouris, l’uso improprio dell’IA può causare danni gravi, aumentando i costi per gli avvocati avversari e sottraendo ai clienti la possibilità di una difesa accurata. Altri avvocati, in casi simili, hanno tentato di negare o giustificare l’errore, sprecando risorse e tempo. In questo caso, invece, Durbano e Bednar hanno accettato le responsabilità, circostanza che ha pesato sull’entità della sanzione.

Il giudice ha ordinato il pagamento delle spese legali della controparte e una donazione di 1.000 dollari all’associazione “And Justice for All”, che fornisce assistenza legale a persone vulnerabili. Un portavoce dell’associazione ha commentato: “Una donazione così aiuta direttamente chi non potrebbe permettersi un legale. Sosteniamo l’uso responsabile dell’IA”.

La trappola dell’AI: studenti impreparati e troppa fiducia

La vicenda ha riacceso il dibattito sull’uso dell’intelligenza artificiale nelle università. Secondo il legale Matthew Barneck, è normale che i praticanti siano privi di licenza, ma resta inspiegabile perché l’atto non sia stato verificato da avvocati esperti. Lo stesso giudice ha ammonito: “La professione legale deve restare cauta verso l’IA, nota per le sue allucinazioni informative”. La transizione verso l’uso dell’AI nelle aule di giustizia richiede formazione e maggiore consapevolezza.

Docenti universitari americani hanno segnalato alla testata 404 Media che molti studenti mostrano una fiducia cieca in ChatGPT. Una docente, Kate Conroy, ha dichiarato: “I miei studenti insistono che ChatGPT sia valido se usato bene, ma non sanno spiegare cosa significhi usarlo correttamente”. E aggiunge con amarezza: “Non pensano più con la loro testa. Mi mostrano lo schermo del telefono e dicono: ‘C’è scritto qui’. È devastante”.

Fonte:

Unlicensed law clerk fired after ChatGPT hallucinations found in filing – Ars Technica

Correlati