La Commissione Europea ha annunciato nel febbraio 2025 il ritiro della proposta di direttiva sulla responsabilità da intelligenza artificiale, avanzata nel 2022. Questo provvedimento, che mirava a fissare regole specifiche di responsabilità civile per danni causati da sistemi di IA, è stato cancellato dal programma di lavoro 2025 dell’Esecutivo con la motivazione di “nessun accordo prevedibile”.
Le ragioni del ritiro e le critiche politiche
Secondo la Commissione, l’iter legislativo non ha raggiunto un’intesa tra gli Stati membri. In particolare, la Commissaria europea responsabile per la digitalizzazione, Henna Virkkunen, ha sottolineato che una direttiva avrebbe comportato implementazioni disomogenee nei vari Paesi, preferendo invece rafforzare il mercato unico digitale con regole vincolanti a livello europeo.
Tuttavia, la decisione ha suscitato forti critiche. Axel Voss, europarlamentare EPP che seguiva il dossier, ha definito il ritiro come un «errore strategico», avvertendo che la mancanza di una normativa armonizzata può creare incertezza legale e favorire le grandi piattaforme tecnologiche a discapito delle PMI europee. Anche Brando Benifei ha dichiarato che senza un quadro normativo specifico le vittime di danni legati all’IA rischiano di non avere strumenti efficaci di risarcimento.
D’altra parte, il Parlamento europeo non ha completamente chiuso la questione: alcuni membri chiedono di mantenere viva la discussione sulla direttiva, nonostante il ritiro formale.

Qual è il contesto normativo attuale
Il ritiro della direttiva non significa un’assenza di regolamentazione: infatti, il Regolamento UE sull’AI (AI Act) entra in gioco proprio per stabilire obblighi in funzione del livello di rischio dei sistemi IA. Secondo Bruxelles, è prioritario consolidare l’AI Act prima di ipotizzare nuove norme sulla responsabilità.
L’approccio scelto è più mirato: piuttosto che introdurre una direttiva che verrebbe implementata in modo diverso nei vari Stati, la Commissione preferisce regole comuni, più semplici da applicare e coerenti con il mercato digitale europeo.
Cosa cambia per la pratica legale
Per gli studi legali, l’abbandono della direttiva significa dover navigare in un quadro più incerto. Senza norme specifiche sull’IA liability, la responsabilità per danni causati da sistemi intelligenti dovrà essere valutata caso per caso, facendo leva su istituti generali come la responsabilità civile extracontrattuale.
Questo scenario richiede avvocati con competenze sia tecnologiche sia giuridiche: sarà necessario analizzare algoritmi, progettare contratti con adeguate clausole di garanzia, prevedere audit periodici e studiare strategie di contenzioso per casi di danno derivante da IA.
Inoltre, il contesto potrebbe favorire una nuova forma di litigio strategico: le parti lesse potrebbero tentare richieste di risarcimento basate su causalità algoritmica, obblighi di trasparenza e documentazione tecnica, ma senza una norma dedicata rischiano di incontrare maggiori difficoltà nel quadro giudiziario europeo.
Verso una formazione legale sull’IA sempre più necessaria
Questa evoluzione normativa mette in luce un dato essenziale: la formazione specializzata sull’intelligenza artificiale non è più un’opzione, ma una necessità per i professionisti del diritto. Comprendere il funzionamento tecnico dei sistemi IA, i rischi legati all’adozione, e le implicazioni giuridiche è fondamentale per offrire consulenza strategica e costruire modelli di governance efficaci.
Master, corsi e programmi dedicati a diritto e IA diventano così leve decisive per costruire una competenza completa, cruciale per gestire progetti innovativi, garantire la compliance normativa e affrontare eventuali contenziosi. Scopri i nostri master e corsi.