dariodeleonardis.me

“Avvocato, mi passi ChatGPT”: vince la causa contro lo sfratto grazie all’IA (ma è una roulette russa)

In questo articolo

 


 

Diciamocelo, l’idea che l’intelligenza artificiale possa sostituire gli avvocati è un classico dell’hype tecnologico. Ma cosa succede quando qualcuno ci prova davvero? A volte, incredibilmente, funziona. È il caso di una donna californiana che, armata di ChatGPT e altri strumenti AI, è riuscita a ribaltare un avviso di sfratto, evitando decine di migliaia di dollari di penali in mesi di battaglie legali.

Una storia che fa riflettere, certo, ma che nasconde insidie enormi. Perché, come vedremo, affidarsi a un chatbot per districarsi nelle maglie della legge è come giocare alla roulette russa.

Lynn White vs. Sfratto: il caso che fa discutere

Come racconta NBC News, Lynn White era indietro con l’affitto e aveva inizialmente perso una causa con giuria dopo aver ricevuto l’avviso di sfratto. Invece di continuare con la rete locale di supporto agli inquilini, ha deciso di fare da sé, consultando ChatGPT e la piattaforma di ricerca AI Perplexity per rappresentarsi in tribunale (quello che gli americani chiamano “pro se”).

Una mossa quasi sempre sconsigliata. Eppure, secondo la NBC, il chatbot ha identificato potenziali errori procedurali nelle decisioni di un giudice, ha suggerito a White le azioni da intraprendere e ha persino redatto le risposte per la corte.

“Non sottolineerò mai abbastanza l’utilità dell’IA nel mio caso”, ha dichiarato White alla testata. “Non avrei mai, mai, mai, mai potuto vincere questo appello senza l’IA”.

“Fingi di essere un prof di Harvard e smontami tutto”

Lynn White non è l’unica. La NBC ha raccolto altre testimonianze simili. Staci Dennett, proprietaria di un’attività di fitness a domicilio nel New Mexico, ha usato l’IA per negoziare con successo un accordo su un debito non pagato.

La sua strategia? “Dicevo a ChatGPT di fingere di essere un professore di legge di Harvard e di fare a pezzi le mie argomentazioni”, ha raccontato alla NBC. “Fallo a pezzi finché non prendo un A+ al compito”.

Il risultato, a quanto pare, è stato talmente convincente da spiazzare persino gli avvocati della controparte. “Se la legge è qualcosa che ti interessa come professione, potresti certamente fare questo lavoro”, le avrebbero scritto in una email.

Il lato oscuro: allucinazioni legali e figuracce epiche

Ma queste storie a lieto fine sono, appunto, storie. La realtà è che affidarsi all’IA in tribunale è estremamente rischioso. Questi strumenti sono noti per le loro “allucinazioni”: inventano informazioni, citano sentenze inesistenti, travisano concetti giuridici. Un pasticcio che può mettere nei guai seri chi si rappresenta da solo.

Ne sa qualcosa Jack Owoc, magnate delle bevande energetiche, sanzionato ad agosto dopo aver depositato un’istanza infarcita di citazioni inventate dall’IA. Risultato? Dieci ore di servizi sociali obbligatori.

La cosa forse più preoccupante è che persino avvocati professionisti stanno cadendo in questa trappola. Vengono beccati a presentare atti con casi giudiziari allucinati, rimediando figuracce, sanzioni e mettendo a rischio i loro clienti.

Un caso emblematico, riportato da 404 Media proprio questa settimana: un avvocato di New York, scoperto a usare l’IA in tribunale, ha pensato bene di presentare una giustificazione… generata anch’essa dall’IA! Il giudice, comprensibilmente deluso, ha scritto in una decisione al vetriolo: “Questo caso aggiunge un altro sfortunato capitolo alla storia dell’uso improprio dell’intelligenza artificiale nella professione legale”.

Ad agosto, un avvocato californiano ha ricevuto una multa “storica” di 10.000 dollari per aver presentato un appello generato dall’IA. Ventuno delle 23 citazioni di casi erano pura invenzione.

L’avvocato AI fai-da-te: una tendenza in crescita (e pericolosa)

Nonostante i pericoli evidenti, la facile accessibilità di strumenti come ChatGPT sta portando a un aumento delle persone che decidono di rappresentarsi da sole in tribunale.

“Ho visto più ‘pro se litigants’ nell’ultimo anno che probabilmente in tutta la mia carriera”, ha dichiarato a NBC Meagan Holmes, paralegale presso Thorpe Shwer.

E questo avviene nonostante le stesse aziende produttrici di IA mettano in guardia. Google, nei suoi termini di servizio, avverte esplicitamente di non fare affidamento sull’IA per consulenza legale. Elon Musk, con la sua xAI, scrive nero su bianco di non usare i suoi servizi per prendere “decisioni automatizzate ad alto rischio che incidono sulla sicurezza, sui diritti legali o materiali di una persona”.

Eppure, le barriere attuali non impediscono a ChatGPT di sfornare risposte dettagliate a domande su procedimenti legali. Nel bene e, molto più spesso, nel male.

Etica e accesso alla giustizia: il vero nodo

Il quadro è complesso. Da un lato, c’è la tentazione, comprensibile, per chi non può permettersi un avvocato. “Posso capire più facilmente come qualcuno senza un avvocato, e magari che sente di non avere i soldi per accedere a un legale, sarebbe tentato di fare affidamento su uno di questi strumenti”, ha commentato l’avvocato Robert Freund alla NBC.

Dall’altro lato, c’è l’inaccettabile negligenza (o malafede?) degli avvocati che usano questi strumenti in modo acritico. “Quello che non riesco a capire”, continua Freund, “è un avvocato che tradisce le parti più fondamentali delle nostre responsabilità verso i clienti… e presenta queste argomentazioni basate su una totale invenzione”.

Questa vicenda solleva questioni cruciali sull’accesso alla giustizia in un’epoca di crescente divario economico. L’IA *sembra* offrire una scorciatoia democratica, ma è una scorciatoia piena di trabocchetti. Invece di risolvere il problema dell’inaccessibilità dell’assistenza legale qualificata, rischia di creare una giustizia a due velocità: quella (costosa) basata su competenze umane e quella (apparentemente economica ma rischiosissima) affidata a “pappagalli statistici” inaffidabili. La soluzione non è l’avvocato-bot, ma garantire a tutti un accesso equo alla rappresentanza legale competente.