dariodeleonardis.me

Avvocato beccato con ChatGPT in tribunale: il giudice lo rimanda a scuola di diritto

L’intelligenza artificiale è ormai tra noi, e sta iniziando a creare un bel po’ di scompiglio nelle aule di tribunale. Non passa quasi settimana, infatti, senza che emerga una nuova storia di avvocati che cercano la scorciatoia facile, affidandosi a un chatbot, con risultati a dir poco disastrosi. L’ultimo episodio arriva dal Maryland, e la reazione del giudice è di quelle che lasciano il segno.

In questo articolo

 


 

La storia: un copia-in-colla finito male in una causa di divorzio

Siamo in una corte d’appello del Maryland. Un avvocato, Adam Hyman, sta rappresentando una madre in una complicata battaglia legale per l’affidamento dei figli. Un caso delicato, come potete immaginare. Peccato che l’avvocato abbia pensato bene di “cucinare” le sue memorie legali con l’aiuto di ChatGPT.

Come è facile immaginare, l’operazione è finita malissimo. Come riportato da diverse testate locali, la documentazione presentata al giudice era infarcita di “allucinazioni” dell’IA. Questo termine, che ormai conosciamo bene, significa che il chatbot si era letteralmente inventato di sana pianta le citazioni legali.

Un disastro su tutta la linea. L’atto non solo conteneva riferimenti a casi giuridici che semplicemente non esistevano, ma in alcuni punti includeva citazioni *reali* che, però, contradicevano le argomentazioni stesse che l’avvocato stava cercando di sostenere. Insomma, un autogol clamoroso.

La difesa (peggiore del danno): “È stato il praticante”

E qui, come si suol dire, casca l’asino. Messo di fronte all’evidenza, come si è difeso l’avvocato Hyman? Nel modo peggiore possibile: ha scaricato la colpa su un praticante (law clerk).

In una successiva memoria difensiva, Hyman ha sostenuto di “non essere stato coinvolto direttamente nella ricerca delle citazioni incriminate”. Ha dichiarato che è stato il praticante a usare ChatGPT per trovare i riferimenti e per l’editing finale. L’avvocato, a quanto pare, non era consapevole dei rischi delle allucinazioni dell’IA.

Come se non bastasse, ha aggiunto che lui “fa pochissimo lavoro d’appello” e, in pratica, non ha verificato la correttezza dei casi citati prima di depositare gli atti. Una scusa, diciamolo francamente, che suona persino peggio dell’errore originale. Questo caso illustra perfettamente uno dei rischi più grandi dell’IA sul lavoro: non la macchina che si ribella, ma la delega della responsabilità professionale e l’abbandono del pensiero critico in nome della pigrizia.

La sentenza del giudice: “Questo non è rappresentanza competente”

Naturalmente, la giudice d’appello Kathryn Grill Graeff non l’ha presa bene. In una sentenza durissima, ha messo nero su bianco il suo sdegno.

“È indiscutibilmente inappropriato per un avvocato presentare una memoria con casi falsi generati dall’IA”, ha scritto la giudice. “L’avvocato ha ammesso di non aver letto i casi citati. Si è invece affidato al suo praticante, un non-avvocato, che chiaramente non ha letto i casi, essendo fittizi.”

La stoccata finale è magistrale e definisce il cuore del problema: “A nostro avviso, questo non soddisfa il requisito di una rappresentanza competente.”

La giudice Graeff ha sottolineato che, normalmente, un errore del genere non richiederebbe una sentenza formale (che crea un precedente), ma ha voluto cogliere l’occasione per “affrontare un problema che sta diventando ricorrente nei tribunali di tutto il paese”.

Un problema ricorrente e una lezione per il futuro

Alla fine, Hyman ha dovuto ammettere la propria responsabilità. Ma la punizione è forse la parte più interessante. Non solo l’avvocato, ma anche il praticante, sono stati obbligati a completare dei “corsi di formazione legale sull’uso etico dell’IA”.

Inoltre, l’ufficio legale dovrà implementare nuovi protocolli per la verifica delle citazioni e l’avvocato Hyman è stato deferito alla Commissione Disciplinare (Attorney Grievance Commission) per ulteriori provvedimenti.

Questa storia, che si aggiunge a una lista crescente di incidenti simili, non è una barzelletta. È un monito potentissimo. L’intelligenza artificiale è uno strumento, e come ogni strumento può essere usato bene o male. Ma nel mondo professionale, specialmente in quello legale dove sono in gioco i diritti e le vite delle persone (in questo caso, l’affidamento di bambini), non esiste delega che tenga. La competenza, la verifica e la responsabilità finale restano, e devono restare, umane.