Usa, avvocato usa ChatGpt per un ricorso ma le sentenze citate sono false
Per istruire il caso il legale di New York si era affidato totalmente all'AI. Solo dopo le opportune verifiche chieste dal giudice si è reso conto che i precedenti elencati erano tutti inventati
Ha usato ChatGPT per argomentare un ricorso al tribunale di Manhattan citando una marea di precedenti, ma non si è reso conto che in realtà le sentenze elencate erano tutte inventate: è quanto accaduto a un avvocato di New York, con trent'anni di onorata carriera. che si era affidato totalmente all'Intelligenza Artificiale (AI) per difendere il suo assistuto. Solo dopo le opportune verifiche il legale si è reso conto dell'errore ammettendo che prima di allora non aveva mai usato questo chatbot (software).
Il caso in tribunale - La storia è riportata dal Corriere della Sera. Il legale, Steven Schwartz, ha presentato un ricorso al tribunale di Manhattan di Roberto Mata, un passeggero di un volo Avianca che accusava la compagnia colombiana perché ferito a un ginocchio da un carrello delle vivande durante un viaggio da El Salvador a New York. Alla compagnia, che ha chiesto l’archiviazione contestando anche la scadenza dei termini (il caso è del2019), l’avvocato ha replicato con una marea di precedenti nei quali le corti hanno dato ragione ai passeggeri. Peccato però che i casi citati, sette per la precisione, fossero inventati.
Il giudice ha chiesto verifiche - Non avendo trovato riscontro dei precedenti il giudice Kevin Castel ha chiesto a Schwartz gli estremi dei casi. L’avvocato, che si era ciecamente affidato a ChatGPT per istruire il caso, ha interrogato di nuovo l’intelligenza artificiale che gli ha fornito le date dei procedimenti, ha indicato i tribunali che si sono pronunciati, ha fornito perfino il numero delle sentenze. Anche così, però, il giudice non ha trovato nulla. Davanti alla richiesta di esibire il testo integrale degli atti citati, ChatGPT ha ammesso di aver inventato.
Uso maldestro della teconologia - A quel punto il legale ha dovuto ammettere di essersi affidato totalmente a ChatGPT e di non averlo mai usato prima. Chiunque si è documentato bene su ChatGPT sa che quella che chiamiamo intelligenza è, in realtà, un modello probabilistico basato su un meccanismo statistico e su uno sterminato database che comprende tutto ciò, buono e cattivo, che circola in Internet. ChatGPT riesce a produrre testi sensati perché dopo ogni parola indovina probabilisticamente l’espressione che seguirà. Nella maggior parte dei casi fornisce informazioni fondate, ma non sempre.
Un sistema sperimentale - Sam Altman, capo di OpenAI e padre di ChatGPT, lo aveva detto da subito: il sistema è nuovo, sperimentale, bisogna essere prudenti e non prendere le risposte per oro colato. L'AI, almeno ibn questa fase di perfezionamento, deve essere un complemento, un aiuto per l’uomo, non il suo sostituto. Chi ignora questo monito per imperizia o pigrizia rischia di compiere errori madornali, come il legale americano.
SU TGCOM24