L’utilizzo dell’intelligenza artificiale si sta allargando a macchia d’olio ad ambiti sempre più estesi e si legge sulla stampa che arriverà a soppiantare ulteriori professioni, come quelle giuridiche (avvocati e notai).
E’ probabile che ciò sia in parte vero, soprattutto per determinati ambiti di attività, ma, almeno nelle professioni giuridiche, non potrà mai soppiantare l’apporto umano.
Come esempio vediamo il caso deciso dal tribunale di Firenze con ordinanza 14/3/2025.
In un contenzioso giudiziale un collaboratore del difensore di una parte si era affidato a ChatGPT per la ricerca di precedenti giurisprudenziali utili a sostegno delle sue tesi, riportando gli estremi delle decisioni (numero e data) ed anche estratti dalle massime o delle motivazioni.
Ma cosa è accaduto che ha portato il Tribunale a pronunciarsi sull’utilizzo dell’IA?
Inspiegabilmente lo strumento utilizzato aveva indicato precedenti giurisprudenziali del tutto inventati, che nulla avevano a che fare con il caso in questione: massime e riferimenti giuridici erano del tutto inesistenti.
Mentre la difesa che si era avvalsa di ChatGPT non aveva fatto le opportune verifiche sulle massime citate, quella avversaria aveva approfondito, scoprendo che le decisioni citate non esistevano.
Immediata la censura, la conseguente accusa e quindi la domanda di risarcimento danni per dolo/mala fede processuale.
Proposta la domanda di condanna per responsabilità processuale aggravata, si scopre la totale buona fede dell’utilizzatore di ChatGPT: lo strumento, anche ad un controllo e ad una verifica successiva, dava i medesimi errati risultati.
Per questo motivo il tribunale, pur ammonendo la difesa per non aver verificato la correttezza dei risultati dati dall’interrogazione dell’IA, ha ritenuto la inesistenza di alcun danno respingendo la domanda di responsabilità processuale aggravata.
E quindi il tribunale ha avuto modo di soffermarsi su quello che è ormai definito come fenomeno delle “allucinazioni dell’intelligenza artificiale”.