Usare l’intelligenza artificiale per preparare una causa in tribunale? Sembra futuristico, comodo, persino brillante. Peccato che, almeno per ora, sia anche piuttosto rischioso. Lo sa bene un avvocato fiorentino che, fidandosi troppo di ChatGPT, si è ritrovato in aula con una serie di sentenze che… non sono mai esistite. Sì, proprio così: l’AI aveva confezionato una perfetta analisi giuridica, piena di riferimenti alla Corte di Cassazione, solo che quei precedenti erano stati inventati di sana pianta.
Errore legale alimentato da ChatGPT
Niente di male, si potrebbe pensare, se fosse stata una simulazione. Il problema è che era tutto vero: un vero processo, un vero avvocato, e purtroppo anche un vero errore. Secondo quanto emerge, a utilizzare l’AI sarebbe stata una giovane praticante dello studio, che – forse per inesperienza o fiducia eccessiva nella tecnologia – non si è confrontata con il suo superiore prima di inserire nel fascicolo quelle informazioni.
La vicenda, finita nero su bianco in una sentenza del 14 marzo, ha fatto il giro del web e dei corridoi giudiziari. Non è la prima volta che succede: negli Stati Uniti, già nel 2023, uno studio era stato multato per un caso simile. Lì, però, i giudici erano stati molto più severi. In Italia, per ora, niente sanzioni: solo un avvertimento, chiaro e diretto, a tutta la categoria forense.
Il punto è che strumenti come ChatGPT sono progettati per dare risposte, non per dire “non lo so”. E se non sanno qualcosa, se la inventano. Non per cattiveria, ovviamente, ma per come sono costruiti: mirano alla plausibilità, non alla verità. A spiegarlo bene è Corrado Giustozzi, esperto di cybersicurezza, che invita a non sottovalutare il rischio. Perché se oggi è “solo” un avvocato a fidarsi troppo, domani potrebbe essere un giudice a non accorgersi dell’inganno. E allora sì, le conseguenze sarebbero molto più gravi.
