di Marta VALENTINI
Il ricorso sempre più ampio a soluzioni di intelligenza artificiale (IA) “autonoma”(1), accanto alle indubbie opportunità che offre, ha acceso un vivace dibattito sui rischi connessi al suo impiego e sulle nuove sfide – etiche e giuridiche – che essa pone alla tutela delle libertà individuali e alla tenuta delle istituzioni democratiche.
In questo scenario si inseriscono le numerose iniziative normative avviate a livello internazionale, europeo e nazionale, finalizzate a definire una regolamentazione tempestiva, capace di governare gli usi dell’IA nei diversi ambiti della società.
L’obiettivo è duplice: da un lato, permettere a cittadini, istituzioni e imprese di sfruttarne appieno i benefici; dall’altro, garantire la salvaguardia degli interessi nazionali e dei principi fondamentali, quali i diritti umani, la protezione dei dati personali, la sicurezza, l’equità e la trasparenza.
L’intervento più recente che interessa l’ordinamento italiano è rappresentato dalla pubblicazione in Gazzetta Ufficiale, il 25 settembre scorso, della Legge n. 132/2025, recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”(2).
La norma, in vigore da oggi, 10 ottobre, si affianca al Regolamento europeo sull’intelligenza artificiale (“AI Act”(3)) con l’obiettivo di sostenere e promuovere lo sviluppo di sistemi di IA fondati su una visione antropocentrica e sui principi di trasparenza, responsabilità, equità e tutela dei diritti fondamentali. Il provvedimento persegue un equilibrio tra le opportunità offerte dalle nuove tecnologie e i rischi derivanti dal loro uso improprio, dannoso o, al contrario, dal loro sottoutilizzo.
Mentre l’AI Act definisce e introduce una prima classificazione dei sistemi di IA in base al grado di rischio, stabilendo divieti e obblighi per gli operatori a livello europeo(4), la legge italiana – riprendendo le definizioni eurounitarie di “sistema di intelligenza artificiale” (rilevante solo se “autonomo” e, quindi, progettato per prendere decisioni e intraprendere azioni in modo indipendente dall’operatore umano)(5) – mira alla regolamentazione di ambiti specifici, tra cui sanità, lavoro, professioni intellettuali, pubblica amministrazione e giustizia.
Lo strumento prescelto è la delega al Governo, finalizzata all’adozione di decreti legislativi destinati a regolare materie tecniche di particolare complessità. Tali interventi dovranno essere in armonia con la normativa europea per evitare sovrapposizioni o conflitti di disciplina. D’altra parte, è la stessa legge 132 a precisare, già all’art. 1, che sue disposizioni “si interpretano e si applicano conformemente al diritto dell’Unione europea(6), riaffermando così il principio di conformità e integrazione tra ordinamento interno e ordinamento dell’Unione.
Le novità in materia di responsabilità da reato
La delega al Governo
Il Governo è delegato ad adottare, entro 12 mesi dall’entrata in vigore della legge, uno o più decreti legislativi al fine di precisare “i criteri di imputazione della responsabilità penale delle persone fisiche e amministrativa degli enti per gli illeciti inerenti a sistemi di intelligenza artificiale, che tenga conto del livello effettivo di controllo dei sistemi predetti da parte dell’agente(7)“.
Un compito tutt’altro che agevole, sia per la complessità dell’oggetto sia per la ristrettezza dei tempi previsti.
Come già osservato in altre sedi, l’individuazione dei possibili profili di responsabilità da reato risulta infatti particolarmente complessa quando si considera il processo decisionale dei sistemi di intelligenza artificiale “autonomi”, come quelli considerati appunto dall’AI Act e dalla legge 132(8).
Tali sistemi, infatti, a partire da uno o più input, giungono a generare un determinato output senza che la persona fisica (utilizzatore, produttore, programmatore o sviluppatore)(9) possa esercitare un effettivo controllo sul procedimento intermedio. In altri termini, è possibile individuare gli input e gli output, ma non la catena causale che ha condotto dal dato originario al risultato finale. Questa circostanza rende assai difficoltosa l’applicazione dei tradizionali criteri di imputazione penale, in particolare per quanto riguarda l’accertamento del nesso eziologico tra condotta umana ed evento dannoso e la valutazione della colpa dell’agente, soprattutto con riferimento al requisito della prevedibilità dell’esito lesivo.
Simili difficoltà si riflettono anche sull’eventuale responsabilità da reato degli enti ai sensi del d.lgs. 231/2001. Tale responsabilità, infatti, presuppone – tra gli altri elementi – la commissione di un reato presupposto da parte di una persona fisica qualificata (in posizione apicale o sottoposta alla direzione o vigilanza di quest’ultima). Se non è possibile configurare in capo alla persona fisica il reato presupposto, come potrebbe l’ente risponderne?
Questo rilievo non viene meno neppure alla luce del principio sancito dall’art. 8 del d.lgs. 231/2001, secondo cui l’ente risponde anche quando l’autore del reato non sia stato identificato. Nel caso previsto dal decreto 231, infatti, l’incertezza riguarda non già l’effettiva commissione di un reato – con tutti i suoi elementi costitutivi – nell’interesse o a vantaggio dell’ente, bensì la mera identificazione “anagrafica” dell’autore persona fisica, all’interno di una cerchia ristretta e determinata di soggetti, come ad esempio i componenti del consiglio di amministrazione di una società di capitali(10).
Sarà dunque particolarmente interessante osservare in che modo il Governo darà attuazione alla delega, definendo criteri chiari e coerenti di imputazione della responsabilità da reato delle persone fisiche e degli enti in relazione agli illeciti da intelligenza artificiale “autonoma”.
Le nuove fattispecie di reato
Tra le novità da oggi in vigore spicca l’introduzione, all’art. 26 della legge, dell’art. 612-quater c.p. sul c.d. “deepfake“(11) (“Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale“), che sanziona con la reclusione da uno a cinque anni “chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità”.
La fattispecie è volta a contrastare la diffusione non consensuale e pregiudizievole di deepfake. Si tratta di una scelta che, in sede applicativa, non dovrebbe porre particolari difficoltà, poiché la condotta sanzionata non riguarda il processo di produzione del deepfake, ma la sua divulgazione senza il consenso e in danno dell’interessato. L’obiettivo è offrire una tutela rafforzata dell’individuo, incentrando l’offensività della condotta sul pregiudizio all’autodeterminazione e al pieno svolgimento della personalità, circostanza confermata anche dalla collocazione sistematica della disposizione fra i delitti contro la persona e, in particolare, contro la libertà morale, subito dopo lo stalking e il revenge porn.
La fattispecie non rientra tra i reati presupposto della responsabilità degli enti ex d.lgs. 231/2001, ma non è da escludere un suo possibile inserimento in futuro, soprattutto alla luce delle numerose e sempre più rapide iniziative normative in materia di intelligenza artificiale.
La legge 132 interviene anche sulla tutela del diritto d’autore. L’ambito applicativo dell’art. 171 della legge 633/1941(12) – che disciplina la punibilità del plagio artistico – è infatti ora esteso alle condotte di text edata mining illecite, ossia alle attività di riproduzione o estrazione di testi o dati da opere o materiali disponibili in rete o in banche dati mediante l’impiego di sistemi di intelligenza artificiale, in violazione degli articoli 70-ter e 70-quater della stessa legge sul diritto d’autore(13). Anche tale condotta non rileva, al momento, ai fini della responsabilità da reato degli enti, non essendo stata espressamente richiamata all’art. 25-novies del d.lgs. 231/2001.
Nonostante il mancato inserimento nell’elenco dei reati 231 delle nuove fattispecie sul deepfake e sul plagio artistico, è comunque opportuno – sotto il profilo del “rischio reato” – mantenere alta l’attenzione sull’impiego dell’intelligenza artificiale in azienda, quantomeno rispetto all’utilizzo di sistemi “non autonomi”, ossia quelli che operano sotto il diretto controllo dell’operatore umano. Tali sistemi possono infatti essere agevolmente ricondotti ai tradizionali schemi della strumentalità dell’oggetto rispetto all’agente persona fisica, sicché i loro eventuali comportamenti illeciti risultano imputabili a quest’ultimo in base al modello di responsabilità indiretta o vicaria. In tale prospettiva, l’IA si atteggia a vera e propria longa manus dell’agente, che sarà pertanto chiamato a rispondere, ricorrendone i presupposti, dei reati commessi dalla macchina. Nulla ostacola, in tal senso, il fatto che il sistema penale italiano (almeno fino a ieri) non facesse espresso riferimento al concetto di “intelligenza artificiale”: tale nozione, infatti, è irrilevante nella formulazione dei reati a forma libera e può essere facilmente ricompreso in alcune locuzioni già presenti nelle fattispecie a forma vincolata (ad esempio, quella di “sistema informatico”). Rileva quindi un’ampia casistica di reati presupposto, tra cui, a titolo esemplificativo, i reati informatici o comunque cyber-related previsti dal codice penale e dalle leggi speciali, oltre a quelli, in parte già richiamati, commessi in violazione della normativa sul diritto d’autore (artt. 24, 24-bise 25-novies del d.lgs. 231/2001). In tali casi è dunque ipotizzabile una responsabilità para-penale dell’ente, purché si tratti di sistemi di IA operanti sotto il controllo diretto dell’uomo(14).
Le nuove circostanze aggravanti
Per completezza e a chiusura, si rappresenta che la legge 132 introduce anche una serie di circostanze aggravanti nei casi in cui il reato sia commesso mediante l’utilizzo di sistemi di intelligenza artificiale. Le novità riguardano sia le circostanze aggravanti comuni, sia alcune relative a specifiche fattispecie di reato(15).
Intervento di Marta VALENTINI, Avvocato, Studio Legale Pellegrino
Per approfondimenti, consultare i seguenti link e/o riferimenti:
(1) Secondo il rapporto dell’Osservatorio Artificial Intelligence del Politecnico di Milano, aggiornato al 5 febbraio 2025, nel 2024 il mercato dell’intelligenza artificiale ha raggiunto i 1,2 miliardi di euro, con una crescita del 58 per cento rispetto al 2023. Un’analisi più approfondita rivela come l’intelligenza artificiale generativa, che include soluzioni innovative tra cui i modelli linguistici avanzati e le tecnologie di creazione automatica, è il principale fattore di traino, in quanto tali soluzioni rappresentano il 43 per cento del mercato. Il restante 57 per cento è costituito in prevalenza da soluzioni di AI tradizionale, che comprende applicazioni consolidate come machine learning e il riconoscimento vocale e visivo. Il rapporto è consultabile al seguente link: https://www.osservatori.net/comunicato/artificial-intelligence/intelligenza-artificiale-italia/.
(2) La Legge n. 132/2025 è stata pubblicata nella Gazzetta Ufficiale n. 223 del 25 settembre 2025 ed è consultabile
(3) Regolamento (UE) 2024/1689 (c.d. “AI Act”), che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale).
(4) L’AI Act mira a promuovere lo sviluppo e l’adozione di sistemi di intelligenza artificiale sicuri e affidabili nel mercato unico dell’UE da parte di soggetti pubblici e privati, attraverso un modello di governance armonizzato basato sulla classificazione dei rischi di questi sistemi. Gli operatori saranno chiamati a condurre un’attività di valutazione al fine di stabilire se il sistema che stanno sviluppando, che intendono commercializzare o utilizzare, possa essere ricompreso o meno entro tale perimetro. Un’intelligenza artificiale che non presenti tutti gli elementi delineati nella definizione sopra riportata non è soggetto ai divieti, ai requisiti e agli obblighi introdotti dall’AI Act. Una volta stabilito che si tratta di dispositivo intelligente ai sensi del Regolamento, occorrerà poi valutare il grado di rischio correlato. L’AI Act fonda infatti il proprio sistema di protezione su un approccio c.d. “risk based”. Non è la tecnologia ad essere disciplinata e catalogata, ma i potenziali rischi legati al suo impiego, che sono classificati in: rischio inaccettabile; rischio alto; rischio limitato; rischio minimo o nullo. Ad ogni categoria di rischio corrispondono, poi, specifici obblighi e divieti per gli operatori.
(5) In particolare, la lettera a) indica che la definizione di sistema di intelligenza artificiale è la medesima contenuta nell’articolo 3, comma 1, numero 1) dell’AI Act. Pertanto, con tale termine, si intende un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. La lettera b) introduce la definizione di dato, considerato come qualsiasi rappresentazione digitale di atti, fatti o informazioni e qualsiasi raccolta di tali atti, fatti o informazioni, anche sotto forma di registrazione sonora, visiva o audiovisiva. Tale definizione è presa dal regolamento (UE) 2022/868, cosiddetto Data governance Act. Infine, la lettera c), modificata nel corso dell’esame al Senato, riporta la definizione di modelli di intelligenza artificiale, di cui all’articolo 3, comma 1, numero 63) dell’AI Act. In particolare, il dettato europeo definisce un “modello di IA per finalità generali”; come un “modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l’auto-supervisione su larga scala, che sia caratterizzato da una generalità significativa e sia in grado di svolgere con competenza un’ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad eccezione dei modelli di IA che sono utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato”.
(6) In proposito, il dossier sul disegno di legge A.S. n. 1146-B del 27 giugno 2025, recante “Disposizioni e delega al governo in materia di intelligenza artificiale” specifica ulteriormente che “Secondo i principi stabiliti dalla Corte di giustizia dell’Unione europea e dalla stessa Corte costituzionale italiana (a partire, riguardo a quest’ultima, dalla sentenza cosiddetta Granital, n. 170 del 1984), il Regolamento ha preminenza sulla legge italiana. Questa, pertanto, si intende rivolta agli aspetti tipici della realtà socio-economica nazionale e ai profili non espressamente coperti dalla normativa unionale e a quelli che quest’ultima rimette proprio alla disciplina dei singoli Stati membri“.
(7) Art. 24, comma 3 e comma 5, lett. c), legge 132/2025. Oltre alle deleghe in materia di diritto penale sostanziale, il Governo ha ricevuto specifici poteri anche in tema di law enforcement (polizia, art. 24, lett. h) e di indagini preliminari (art. 24, comma 3), che saranno oggetto di un successivo approfondimento. Si anticipa qui, per completezza, che la prima delega risulta estremamente sintetica – si limita infatti a prevedere la “disciplina per l’utilizzo di sistemi di intelligenza artificiale per l’attività di polizia” – e richiede pertanto di essere letta in combinato disposto con i principi generali di tutela e di delega, nonché con l’AI Act, che qualifica le attività di policing come ad alto rischio e già vieta, con norma direttamente applicabile, l’uso del riconoscimento biometrico a distanza in tempo reale. Quanto alla seconda delega, relativa all’impiego dell’intelligenza artificiale nelle indagini preliminari, anche in questo caso mancano criteri e principi direttivi specifici, fatta eccezione per quelli di carattere generale. La disposizione si limita infatti a stabilire che il Governo dovrà disciplinare “l’intelligenza artificiale nelle indagini preliminari, nel rispetto delle garanzie inerenti al diritto di difesa e ai dati personali dei terzi, nonché dei principi di proporzionalità, non discriminazione e trasparenza”.
(8) M. Valentini – E. Di Fiorino, Intelligenza artificiale e sistema 231, in L’Organismo di vigilanza nel sistema 231, Pacini Giuridica, 2025.
(9) Il ciclo di vita di un sistema di IA comprende tipicamente diverse fasi che includono: pianificazione e progettazione; raccolta ed elaborazione dei dati; costruzione di modelli e/o adattamento di modelli esistenti a compiti specifici; test, valutazione, verifica e convalida; messa a disposizione per l’uso; funzionamento e monitoraggio; ritiro e disattivazione. Queste fasi coinvolgono più soggetti, si svolgono spesso in modo iterativo e non sono necessariamente sequenziali. OCSE, Recommendation of the Council on Artificial Intelligence, 3 maggio 2024, p. 3.
(10) M. Bellacosa, Art. 8. Autonomia delle responsabilità dell’ente, in LEVIS, PERINI (diretto da), La responsabilità amministrativa delle società e degli enti, d.lgs. 8 giugno 2001, n. 231, Zanichelli Editore, 2018, p. 218 e ss.
(11) Come chiarito dal Garante per la Protezione dei Dati Personali, “I deepfake sono foto, video e audio creati grazie a software di intelligenza artificiale (AI) che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce. La parola deepfake è un neologismo nato dalla fusione dei termini “fake” (falso) e “deep learning”, una particolare tecnologia AI. Le tecniche usate dai deepfake sono simili a quelle delle varie app con cui ci si può divertire a modificare la morfologia del volto, a invecchiarlo, a fargli cambiare sesso, ecc. La materia di partenza sono sempre i veri volti, i veri corpi e le vere voci delle persone, trasformati però in “falsi” digitali”. L’intero contributo è reperibile al link: https://www.garanteprivacy.it/documents/10160/0/Deepfake+-+Vademecum.pdf/478612c7-475b-2719-417f-869e5e66604e?version=2.0.
(12) Legge 22 aprile 1941, n. 633, sulla “Protezione del diritto d’autore e di altri diritti connessi al suo esercizio”.
(13) Art. 26, comma 3, legge 132/2025: “All’articolo 171, primo comma, della legge 22 aprile 1941, n. 633, dopo la lettera a -bis ) è inserita la seguente: «a -ter ) riproduce o estrae testo o dati da opere o altri materiali disponibili in rete o in banche di dati in violazione degli articoli 70 -ter e 70 -quater , anche attraverso sistemi di intelligenza artificiale»”.
(14) M. Valentini – E. Di Fiorino, Intelligenza artificiale e sistema 231, cit., p. 642 e ss.
(15) In particolare, all’art. 61 c.p. è aggiunto il n. 11-decies), ai sensi del quale viene considerato come aggravante “l’avere commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato”; all’art. 294 c.p. (“Attentati contro i diritti politici del cittadino“) è aggiunto il seguente comma: “La pena è della reclusione da due a sei anni se l’inganno è posto in essere mediante l’impiego di sistemi di intelligenza artificiale”; all’art. 2637 del codice civile (aggiotaggio) è stato precisato che: “La pena è della reclusione da due a sette anni se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale”; all‘art. 185, comma 1, del testo unico delle disposizioni in materia di intermediazione finanziaria, di cui al decreto legislativo 24 febbraio 1998, n. 58, è stato inserito il seguente periodo: “La pena è della reclusione da due a sette anni e della multa da euro venticinquemila a euro sei milioni se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale”.