L’intelligenza artificiale sta trasformando il modo in cui lavoriamo, scriviamo e prendiamo decisioni. Ma cosa succede quando ci fidiamo troppo?
Un recente caso italiano lo dimostra chiaramente: un avvocato è stato condannato per aver utilizzato contenuti generati dall’AI senza verificarli, arrivando a citare sentenze inesistenti in tribunale. Un errore che non è solo tecnico, ma profondamente professionale.
Vediamo cosa è successo, perché è importante e soprattutto quali lezioni possiamo trarne.
Il caso: quando la tecnologia sbaglia (e il professionista paga)
Nel 2026, il Tribunale di Siracusa (sentenza n. 338 del 20 febbraio) ha sanzionato un avvocato per aver inserito in un atto difensivo citazioni giuridiche inesistenti, generate da un sistema di intelligenza artificiale e mai verificate.
Le verifiche effettuate dai giudici hanno dimostrato che alcune sentenze citate non esistevano affatto e, in aggiunta, altre erano completamente fuori contesto.
Il tribunale ha attribuito l’errore all’uso “acritico” dell’AI generativa, sottolineando che il professionista non aveva controllato le fonti primarie, come invece richiesto dalla pratica legale.
La conseguenza è stata una condanna per colpa grave e abuso del processo, con sanzioni economiche e un impatto diretto sull’esito della causa.


Il problema reale: le “allucinazioni” dell’intelligenza artificiale
Questo caso non è isolato, ma rientra in un fenomeno ben noto: le cosiddette allucinazioni dell’AI. Si tratta di situazioni in cui un sistema genera informazioni plausibili ma non corrispondenti alla realtà.
Secondo studi recenti, tra il 2023 e il 2025 si sono verificati quasi 90 casi simili nei tribunali internazionali. Invece, in test clinici su modelli di AI per decision support, i tassi di allucinazione variano tra circa 50% e 82% delle volte, a seconda delle condizioni e del tipo di compito analizzato (fonte Pubmed, Multi-model assurance analysis).
Il motivo è rappresentato dal fatto che i modelli di AI non “conoscono” la verità, ma generano testi basati su probabilità linguistiche. Ma è difficile distinguere la fonte originale da quella falsa: infatti, sempre lo stesso modello di analisi afferma che alcuni benchmark usati nella ricerca mostrano risultati in cui modelli generativi producono contenuti falsi in modo coerente anche con prompt ben formulati.
Tornando al caso di Siracusa, il tribunale ha chiarito che l’AI non è una banca dati giuridica ma una fonte non verificata.
Perché è successo (e perché succede spesso) e cosa ci insegna
Il problema non è l’intelligenza artificiale in sé, ma come viene utilizzata.
Nel caso specifico, l’errore è stato triplo:
- Fiducia cieca nello strumento
L’avvocato ha trattato l’AI come una fonte affidabile, quando non lo è.
- Mancanza di verifica
Non sono stati controllati:
- database ufficiali
- fonti giuridiche
- precedenti reali
- Uso improprio del contesto
L’AI è stata usata per produrre contenuti critici (atti legali), senza controllo umano. Questo tipo di errore non è banale: nel caso analizzato il cliente ha perso la causa con importanti sanzioni per oltre 30.000 complessivi, compromettendo anche la credibilità professionale. E soprattutto, il tribunale ha stabilito un principio chiave l’uso dell’AI senza verifica può configurare responsabilità professionale.
L’errore dell’avvocato non è stato usare l’intelligenza artificiale, ma delegarle troppo. Questo caso è interessante e, a discapito delle recenti visioni di superiorità dell’algoritmo sull’uomo, conferma che il modello di dati non può prescindere dalla supervisione umana. Perché la tecnologia accelera il lavoro, ma la responsabilità resta sempre umana.
