Un avvocato newyorkese, ha citato una marea di precedenti durante un’istruttoria al tribunale di Manhattan, ma non si è reso conto che le sentenze elencate erano tutte inventate.  

L’uomo ha deciso di accorciare un po’ i tempi e ridurre il carico di lavoro utilizzando l’Intelligenza Artificiale (AI) per difendere il suo assisto. Per farlo si è affidato alla moda del momento: ChatGpt. Non l’avesse mai fatto. Una storia che sta adesso facendo il giro del web e rischia di compromettere la reputazione onorabile e trentennale del legale. 

Steven Schwartz, ha presentato un ricorso al tribunale di Manhattan di Roberto Mata, un passeggero di un volo Avianca che accusava la compagnia colombiana perché ferito a un ginocchio da un carrello delle vivande durante un viaggio da El Salvador a New York.

Alla compagnia, che ha chiesto l’archiviazione contestando anche la scadenza dei termini (il caso è del 2019), l’avvocato ha replicato con una marea di precedenti nei quali le corti hanno dato ragione ai passeggeri. Peccato però che i casi citati, sette per la precisione, fossero tutti inventati.

Non avendo trovato riscontro dei precedenti il giudice Kevin Castel ha chiesto a Schwartz gli estremi dei casi. L’avvocato, che si era ciecamente affidato a ChatGPT per istruire il caso, ha interrogato di nuovo l’intelligenza artificiale che gli ha fornito le date dei procedimenti, ha indicato i tribunali che si sono pronunciati, ha fornito perfino il numero delle sentenze. Anche così, però, il giudice non ha trovato nulla. Davanti alla richiesta di esibire il testo integrale degli atti citati, ChatGPT ha ammesso di aver inventato. 

Del resto anche lo stesso Sam Altman, capo di OpenAI e padre di ChatGPT, aveva messo tutti in guardia: il sistema è nuovo, sperimentale, bisogna essere prudenti e non prendere le risposte per oro colato. L’AI, almeno ibn questa fase di perfezionamento, deve essere un complemento, un aiuto per l’uomo, non il suo sostituto.

Redazione

Autore