A Firenze c’è uno studio legale che usa ChatGPT come avvocato: “A volte funziona meglio di un umano”
La civiltà sta producendo macchine che si comportano come uomini, scriveva Erich Fromm a metà ‘900. Non passa un secolo, ed ecco che Open AI presenta ChatGPT, l’intelligenza artificiale generativa geniale. Non solo si comporta, ma scrive e lavora come un essere umano, e potrebbe diventare giudice o avvocato. Negli Usa il chatbot è già entrato in aula, anche se poi i veri avvocati hanno avuto parecchio da ridire. E in Italia, a Firenze, sta per partire il primo esperimento per capire le prospettive dell'intelligenza artificiale (IA) in ambito giuridico.
"Il 31 marzo durante un convegno metteremo ChatGPT alla prova davanti ai nostri colleghi", a dirlo è Alessandro Traversi, avvocato penalista del foro di Firenze che nel suo studio ha deciso di testare personalmente l'intelligenza artificiale generativa. Tutto è iniziato con una risposta presuntuosa, ed è finito con una buona arringa difensiva prodotta da ChatGPT. “È stato sconcertante, già ora in alcuni ambiti funziona meglio degli avvocati”.
Partiamo dall’inizio, dal primo approccio con ChatGPT.
La prima domanda che gli abbiamo fatto, riprendendo la predizione di Alan Turing nel 1950, è stata: "Come possiamo distinguere la risposta di una macchina da quella di una persona?" ChatGPT ha risposto: "Molto semplice, se arriva una risposta immediata e priva di errori vuol dire che risponde un automa, perché gli umani sono più lenti e spesso sbagliano". Allora, vista l’affermazione un po’ supponente abbiamo deciso di prospettare un caso concreto.
Quale?
Una truffa contrattuale. Il caso in due parole era questo, un signore compra un immobile e poi a distanza di qualche tempo si accorge che ci sono delle infiltrazioni d'acqua dal tetto e in buona sostanza denuncia il venditore per truffa contrattuale. Poi abbiamo chiesto a ChatGPT di costruire la difesa in questo processo.
E ha funzionato?
Da rimanere senza parole, all’istante il chatbot ha risposto così: "Per difendervi dovete individuare eventuali testimoni che possano dimostrare la non conoscenza da parte del venditore del vizio occulto dell’immobile per dimostrare la mancanza del dolo". E poi dopo ha allegato tutta una spiegazione sul reato di truffa.
Avreste davvero potuto usarla come base per costruire un’arringa difensiva?
È ovvio che oggi non potremmo basarci solo su quello che il computer ci dice, ma le basi sono corrette e suppongo che tra non molto, tra pochissimo in realtà visto la sua capacità di migliorare, l’IA sarà davvero in grado di fornire argomentazioni solide.
Negli Stati Uniti c’è DoNotPay che ha già portato ChatGPT in tribunale.
Sì, l’abbiamo letto. In America è diverso, hanno già fatto qualche anno fa delle sperimentazioni in cui è stato utilizzato un computer per valutare determinate clausole contrattuali, e capire se erano o meno conformi alla legge. Ed è stato molto più bravo di un'equipe di valenti avvocati.
Ma infatti ha anche superato un esame di giurisprudenza.
Sì, poi, soprattutto in quegli ambiti dove è tutto documentale, per esempio il diritto tributario funziona benissimo già oggi forse lo fa meglio di un umano. Nei casi civili può persino calcolare la misura del risarcimento del danno.
Abbiamo detto che ChatGPT può diventare un avvocato, avremo anche giudici robot?
Potrebbe essere. Vista la velocità dei miglioramenti, nel giro di poco tempo credo si arriverà anche a questo. Potrebbe essere un problema nel diritto penale dove si parla di fatti umani che coinvolgono sentimenti, passioni, emozioni, tutte cose che un computer non può avere. Ma ha anche i suoi vantaggi, ChatGPT non ha pregiudizi o condizionamenti, per esempio oggi pesano molto le campagne mediatiche che anche inconsciamente in qualche misura influiscono sulla valutazione. Il computer sarebbe immune dai bias cognitivi.
Però l’intelligenza artificiale è comunque addestrata su testi che potrebbero contenere pregiudizi, tra le critiche al chatbot c’è per esempio quella di aver generato messaggi razzisti o misogini.
Certo, infatti uno degli aspetti più critici è proprio questo. Dipenderà molto da come il software verrà programmato, se vengono immesse regole o dati non corretti si arriva a conclusioni sbagliate o dannose.
E invece per quanto riguarda la giurisprudenza predittiva?
Ancora più affascinante, ChatGPT consentirà prima o poi di prevedere l’esito del processo. In ambito civile, tributario e amministrativo, già oggi questa previsione può essere corretta al 99%, nel penale è più difficile, perché ci sono testimonianze orali, non sono solo documenti scritti. Ma anche in questo ambito prima o poi si potrà arrivare a buoni risultati. Il 31 marzo faremo anche un convegno su questo.
ChatGPT potrebbe rubare il lavoro a giudici e avvocati?
Si sono posti in tanti questa domanda, in un tempo non lontano indubbiamente l’IA in tutti i settori comporterà la perdita di molte attività, soprattutto quelle ripetitive. La professione di avvocato dovrebbe sopravvivere, anche se già adesso sto assistendo a un fenomeno che fa riflettere sul tema. Il cliente ancora prima di rivolgersi all’avvocato cerca sempre su internet e poi si presenta in studio già informato, ecco credo che tutta l’attività consultiva sia destinata davvero a essere ridimensionata.
Oltre il lavoro, quali sono i rischi di introdurre ChatGPT nel sistema giudiziario?
Beh il rischio è un appiattimento. Il computer è programmato in base ai precedenti giudiziari, quindi per proporre determinate decisioni si baserà sull'ordinamento consolidato, senza produrre interpretazioni innovative. Il giudice umano è più sensibile al cambiamento sociale e morale, basta pensare ai casi relativi alle coppie arcobaleno, sono problematiche nuove, se ci affidassimo soltanto a un computer non ci sarebbe mai innovazione.
ChatGPT può essere un buon aiutante ma tutto dovrà rimanere sotto il controllo degli esseri umani.
Sì, ma a livello europeo in ambito giudiziario c’è una carta etica che è già stata elaborata, nella quale si riconosce l’opportunità delle nuove tecnologie e dell’intelligenza artificiale, ma con la raccomandazione assoluta che ogni decisione non possa essere presa se non sotto il controllo umano.
La decisione automatizzata quindi non è un rischio reale per ora.
Esatto.
Se lei dovesse scegliere tra un avvocato che non conosce e ChatGPT da chi vorrebbe essere difeso?
Ora un avvocato, nel futuro non saprei rispondere, perché bisogna vedere come si svilupperà la tecnologia.