video suggerito
video suggerito

Un avvocato ha usato ChatGPT senza verificare le informazioni: come è stato scoperto

I giudici della Sezione Imprese del Tribunale di Firenze si sono espressi su un recente caso avvenuto in un procedimento sul diritto d’autore: l’avvocato di una delle due parti ha presentato un documento difensivo con chiari errori, che poi si è scoperto essere stato generato dall’intelligenza artificiale.
12 CONDIVISIONI
Immagine

Quanto e come usare l'intelligenza artificiale sul lavoro o a scuola è uno dei temi più attuali, mentre i chatbot entrano in modo sempre più capillare nella nostra vita quotidiana. Solo qualche giorno fa la nuova funzione Meta AI è apparsa su Whatsapp e in tutti gli altri social di Meta. Il loro uso, soprattutto se non accompagnato dal controllo umano, può infatti dare luogo a errori e, in alcuni casi, anche a veri e propri strafalcioni.

È quanto è successo recentemente nelle aule della Sezione Imprese del Tribunale di Firenze, dove in un procedimento sulla tutela dei marchi e del diritto d’autore, nel difendere il suo cliente un avvocato ha depositato dei documenti con degli errori grossolani che poi si è scoperto essere stati generati con ChatGPT.

Il caso

Il documento – come hanno segnalato l'avvocato Giuseppe Croari e Silvia Di Paola – finito al centro del caso era una memoria difensiva con chiari riferimenti a sentenze della Corte della Cassazione a sostegno della parte difesa. Fin qui tutto nella norma, se non fosse che durante il procedimento penale è emerso un dettaglio tutt'altro che trascurabile: diverse delle sentenze in realtà erano completamente inesistenti. Probabilmente si tratta di un caso di allucinazione dell'intelligenza artificiale: si tratta di errori grossolani che i modelli linguistici di grandi dimensioni possono commettere. Si sono verificati già casi in cui ChatGPT sembrava impazzito, ma – almeno stando alle promesse del suo creatore Sam Altman – questi errori dovrebbero diventare sempre più rari.

La spiegazione dell'avvocato

Tornando alla vicenda del Tribunale di Firenze, l'avvocato si è giustificato dicendo che a quei documenti aveva lavorato una sua collaboratrice e che lui non aveva idea che fossero stati generati con l'intelligenza artificiale. L'avvocato ha comunque riconosciuto l'omesso controllo, ma ha chiesto che i riferimenti del documento sbagliati venissero stralciati perché non decisivi per la sua strategia difensiva.

Da parte sua, l'avvocato della controparte aveva richiesto la condanna per responsabilità aggravata per lite temeraria, sostenendo la presenza di mala fede, in base all'articolo 96 del Codice di procedura penale. Tuttavia, il Tribunale di Firenze ha rigettato la richiesta: i giudici hanno sostenuto che non ci fossero prove che l'avvocato in questione avesse agito con mala fede, né che quei riferimenti avessero danneggiato l'altra parte. Questi due aspetti sono infatti espressamente indicati dal Codice di procedura penale per poter parlare di responsabilità aggravata.

Al di là di questo singolo caso, sentiremo ancora parlare dei limiti dell'uso dell'intelligenza artificiale: il fatto che sempre più persone si avvaleranno di questi strumenti è inevitabile, la differenza la farà il come verranno utilizzati.

12 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views