testo integrale con note e bibliografia
1. INTRODUZIONE: IL QUADRO NORMATIVO SOVRANAZIONALE E NAZIONALE
Con il Regolamento (UE) 1689/2024 (c.d. AI Act) , il legislatore europeo ha inteso affrontare la sfida epocale rappresentata dall'avvento e dalla pervasiva diffusione dell'intelligenza artificiale in ogni sfera dell'attività umana con potenziali ripercussioni significative sui diritti fondamentali dei cittadini.
Si inserisce in questo quadro normativo sovranazionale il disegno di legge italiano approvato dal Senato il 20 marzo 2025, che se per un verso è volto e a integrarne e completarne l’assetto regolatorio in quegli ambiti che il Regolamento lascia alla discrezionalità degli Stati membri, per altro verso propone una visione italiana dell'IA, caratterizzata da un marcato accento sulla centralità della persona umana e da una peculiare attenzione ai profili organizzativi e procedimentali dell'impiego dei sistemi di IA nell’ambito della pubblica amministrazione.
Giova evidenziare che l'iter legislativo del disegno di legge in esame ha beneficiato del contributo di un'ampia e qualificata platea di interlocutori - dalle autorità di regolazione ai rappresentanti del mondo accademico e imprenditoriale - in considerazione della natura intrinsecamente multidimensionale della materia trattata. Il testo che ne è scaturito trascende la mera disciplina di aspetti tecnico-procedurali, erigendo una solida architettura di principi ispiratori che, radicati nel dettato costituzionale, costituiscono la chiave ermeneutica imprescindibile per una corretta applicazione delle disposizioni di dettaglio.
2. L'IMPIANTO ANTROPOCENTRICO DEL DISEGNO DI LEGGE
Tra i principi ispiratori riveste un ruolo di assoluta preminenza il principio antropocentrico, già cardine del Regolamento europeo. L'articolo 3 stabilisce infatti che i sistemi di intelligenza artificiale "devono essere sviluppati e applicati nel rispetto dell'autonomia e del potere decisionale dell'uomo", sancendo il primato della persona sulla macchina che orienta l'interpretazione di tutte le disposizioni successive e traducendosi in tre corollari fondamentali:
- il principio di non esclusività della decisione algoritmica, secondo cui nessuna decisione che incida significativamente sui diritti e le libertà delle persone può basarsi esclusivamente su un processo decisionale automatizzato, impone che vi sia sempre un contributo umano sostanziale nell'adozione di provvedimenti rilevanti .
- il principio di conoscibilità degli algoritmi, in base al quale i sistemi di IA devono essere trasparenti e comprensibili, consentendo agli interessati di accedere a "informazioni significative sulla logica utilizzata" (art. 4), realizza una sofisticata evoluzione del principio della trasparenza amministrativa adattandolo alle specificità della decisione algoritmica;
- il principio di non discriminazione algoritmica secondo cui le procedure matematiche o statistiche alla base dei sistemi di IA devono essere progettate in modo da prevenire effetti discriminatori, specialmente nei confronti di categorie protette o vulnerabili (art. 4, co. 3).
La centralità dell'essere umano si riflette nella struttura delle responsabilità delineata dal disegno di legge, che rigetta l'idea di una "responsabilità algoritmica autonoma" per mantenere la responsabilità saldamente ancorata al principio della supervisione umana.
3. IL SISTEMA DI GOVERNANCE DELL'IA
L'architettura istituzionale disegnata dal legislatore italiano per la governance dell'IA rappresenta una delle scelte più distintive e potenzialmente innovative del disegno di legge. Anziché concentrare le competenze regolatorie in un unico soggetto, l'articolo 20 delinea un sistema "diarchico" che attribuisce la responsabilità della regolazione a due autorità nazionali: l'Agenzia per l'Italia Digitale (AgID) e l'Agenzia per la Cybersicurezza Nazionale (ACN).
La ripartizione di competenze così delineata risponde a una logica di specializzazione funzionale che riflette la duplice anima dell'IA, al contempo opportunità di sviluppo e potenziale fonte di rischi.
Secondo tale architettura istituzionale:
- all'AgID viene affidata la funzione promozionale e di impulso, con il compito di "promuovere l'innovazione e lo sviluppo dell'intelligenza artificiale" e di gestire i processi di "notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi" , come espressamente previsto dal primo comma, lettera a) della citata disposizione;
- l’ACN, per converso, assume una funzione più propriamente regolatoria e di vigilanza, inclusi i poteri ispettivi e sanzionatori, con particolare riferimento ai "profili di cybersicurezza" secondo quanto stabilito dal primo comma, lettera b) del medesimo articolo.
Peraltro, il disegno di legge prevede, al secondo comma dell'articolo 20, che "l'AgID è designata quale autorità di notifica ai sensi dell'articolo 70 del regolamento (UE) 2024/1689 e l'ACN è designata quale autorità di vigilanza del mercato e punto di contatto unico con le istituzioni dell'Unione europea ai sensi del medesimo articolo 70", rafforzando così il riparto di competenze sopra delineato.
Le due agenzie sono chiamate a collaborare strettamente, in particolare per l'istituzione e la gestione congiunta degli "spazi di sperimentazione" (c.d. regulatory sandboxes), ambienti controllati in cui testare soluzioni innovative in regime di parziale deroga alla normativa vigente, come espressamente previsto dall'articolo 20, primo comma, lettera c) del disegno di legge.
Questo meccanismo, già sperimentato con successo nel settore delle innovazioni tecnologiche applicate ai servizi finanziari, bancari e assicurativi , consente di osservare l'impatto di nuove tecnologie in un contesto protetto, raccogliendo dati utili per il successivo adattamento del quadro regolatorio.
Potrebbe sorgere nell’interprete il quesito di come possa essere assicurato l'efficace coordinamento tra le due autorità designate in modo da evitare sovrapposizioni di competenze o, all'opposto, lacune nell'attività regolatoria. A tale interrogativo il legislatore ha dato risposta prevedendo che il raccordo tra le due autorità e con gli altri soggetti pubblici (incluso il Garante per la protezione dei dati personali) sia assicurato da un apposito Comitato (art. 20, terzo comma) istituito presso la Presidenza del Consiglio dei Ministri e composto dai direttori generali delle due agenzie e dal capo del Dipartimento per la trasformazione digitale.
Se da un lato le competenze operative sono distribuite tra AgID e ACN, la definizione degli indirizzi strategici è affidata alla "Strategia nazionale per l'intelligenza artificiale", un documento programmatico elaborato dalla Presidenza del Consiglio e aggiornato con cadenza biennale (art. 19), approvato dal Comitato Interministeriale per la Transizione Digitale (CITD), opportunamente integrato con la partecipazione del Ministro dell'Università e della Ricerca, così da assicurare una visione che consideri anche la dimensione scientifica e formativa dell'IA.
L’architettura istituzionale così delineata riflette la consapevolezza che la regolazione dell'IA richiede un approccio multidimensionale, capace di integrare competenze tecniche, sensibilità giuridiche e visione strategica. Tuttavia, la complessità del sistema di governance solleva interrogativi sulla sua efficienza operativa e sulla potenziale sovrapposizione di competenze. La stessa delimitazione tra i compiti di promozione dell'AgID e quelli di vigilanza dell'ACN potrebbe rivelarsi non sempre chiara, specialmente in un contesto tecnologico in rapida evoluzione.
4. IA E PUBBLICA AMMINISTRAZIONE
L'impiego dell'intelligenza artificiale nel settore pubblico rappresenta uno degli ambiti applicativi di maggiore interesse e potenziale impatto, come testimonia la crescente letteratura sul tema dell'algorithmic governance. Il disegno di legge dedica all'argomento l'articolo 14, che costituisce una delle disposizioni più significative dell'intero testo, delineando un equilibrio tra le esigenze di modernizzazione della pubblica amministrazione e la salvaguardia delle garanzie procedimentali.
La norma al primo comma individua tre obiettivi fondamentali che l'IA è chiamata a perseguire nel contesto amministrativo:
- incremento dell'efficienza dell'attività amministrativa;
- riduzione dei tempi di definizione dei procedimenti;
- aumento della qualità e quantità dei servizi erogati.
Questo "triangolo virtuoso" della digitalizzazione amministrativa rispecchia l'ambizione di sfruttare le potenzialità dell'IA al fine di superare le criticità storiche della pubblica amministrazione italiana, notoriamente caratterizzata da procedure farraginose e tempi dilatati. Tuttavia, il legislatore. ben consapevole che l'automazione del potere pubblico comporta rischi rilevanti per i diritti dei cittadini specialmente in termini di trasparenza e controllo democratico, ha previsto all'articolo 14, che l'utilizzo dell'IA sia subordinato a due imperativi metodologici che fungono da contrappeso garantistico: la "conoscibilità del suo funzionamento" e la "tracciabilità del suo utilizzo" .
Il principale presidio previsto dal disegno di legge è rappresentato dal secondo comma dell'articolo 14, secondo cui l'utilizzo dell'IA "avviene in funzione strumentale e di supporto all'attività provvedimentale, nel rispetto dell'autonomia e del potere decisionale della persona che resta l'unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l'intelligenza artificiale".
Disposizione che cristallizza il paradigma del "human in the loop" (HITL), imponendo che vi sia sempre un funzionario umano a validare le decisioni suggerite dall'algoritmo. Tale modello, che riecheggia quanto previsto dall'articolo 22 del GDPR in materia di decisioni automatizzate, riflette la convinzione che l'IA debba rimanere uno strumento nelle mani dell'amministrazione, e non un sostituto del discernimento umano.
Una questione cruciale, tuttavia, rimane irrisolta: quale debba essere il grado di comprensione e controllo effettivo che il funzionario deve esercitare sull'algoritmo. La crescente complessità dei sistemi di IA, specialmente quelli basati su reti neurali profonde o apprendimento non supervisionato, rende infatti sempre più arduo per il decisore umano comprendere appieno i meccanismi che conducono a un determinato output.
Il rischio concreto è che la supervisione umana si riduca a una mera ratifica formale di decisioni sostanzialmente delegate alla macchina, in una sorta di "automazione de facto" che elude le garanzie formalmente previste dalla legge. Per fronteggiare tale criticità, il terzo comma dell'articolo 14 impone alle pubbliche amministrazioni di adottare "misure tecniche, organizzative e formative" finalizzate a garantire un utilizzo responsabile dell'IA e a sviluppare le capacità dei funzionari.
Un elemento di potenziale criticità è rappresentato dal quarto comma della disposizione in esame, il quale introduce una clausola di invarianza finanziaria che impone alle amministrazioni di provvedere agli adempimenti previsti "con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente", sollevando fondati interrogativi sulla concreta possibilità di implementare sistemi di IA avanzati e di garantire un'adeguata formazione del personale in un contesto di risorse limitate.
5. TUTELE E RESPONSABILITÀ
L'impatto dirompente dell'intelligenza artificiale sui tradizionali modelli di responsabilità giuridica costituisce una delle sfide più complesse affrontate dal disegno di legge, il quale delinea un sistema di tutele e responsabilità articolato su tre livelli principali: responsabilità penale, protezione della proprietà intellettuale e meccanismi di tutela in caso di impiego illecito dei sistemi di IA.
In ambito penalistico, l'articolo 26 apporta rilevanti modifiche al codice penale per rispondere alle peculiarità degli illeciti perpetrati mediante intelligenza artificiale, adottando una duplice strategia normativa: l'introduzione di una circostanza aggravante generale e la creazione di una fattispecie autonoma di reato.
L'aggravante, inserita nell'articolo 61 del codice penale, prevede un inasprimento sanzionatorio quando l'impiego di sistemi di IA costituisca mezzo insidioso, ostacoli la difesa pubblica o privata, o amplifichi le conseguenze lesive del reato. Il legislatore riconosce così la particolare pericolosità dell'IA come strumento criminogeno, caratterizzata dall'opacità algoritmica e dalla capacità di potenziare gli effetti dannosi delle condotte illecite, come nel caso dell'impiego di deep learning per la creazione di contenuti ingannevoli o per l'individuazione di vulnerabilità informatiche.
Parallelamente, viene introdotta all'articolo 612-quater del codice penale la nuova fattispecie di "illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale", che sanziona con la reclusione da uno a cinque anni chi cagioni un danno ingiusto mediante la diffusione non consensuale di rappresentazioni audio-video falsificate tramite IA e idonee a ingannare sulla loro autenticità. Tale previsione mira a contrastare il fenomeno dei deepfake, la cui crescente accessibilità e verosimiglianza pone seri rischi per la reputazione individuale e per l'affidabilità dell'ecosistema informativo.
Sul versante della proprietà intellettuale, l'articolo 25 del disegno di legge interviene su un tema di crescente rilevanza: la tutela delle opere create con l'ausilio dell'intelligenza artificiale. La disposizione modifica la legge n. 633/1941 sul diritto d'autore, chiarendo che le opere dell'ingegno protette devono essere di origine "umana", ma possono essere create "anche con l'ausilio di strumenti di intelligenza artificiale, purché costituenti risultato del lavoro intellettuale dell'autore".
Questa formulazione risolve, almeno in parte, l'ambiguità circa l’ammissibilità della protezione delle opere generate con l'ausilio dell'IA, adottando un approccio che potremmo definire "antropocentrico temperato": da un lato, esclude dalla tutela i contenuti integralmente generati da sistemi di IA senza un apporto creativo umano significativo; dall'altro, riconosce protezione alle opere in cui l'IA, pur svolgendo un ruolo strumentale, rimane subordinata alla direzione e al controllo dell'autore umano.
Va tuttavia rilevato che la norma non definisce il grado minimo di contributo intellettuale umano necessario per la protezione di opere generate con ausilio dell'IA, rendendo problematica la distinzione tra un semplice "prompt" e un effettivo apporto creativo. Emerge, infatti, la difficoltà di stabilire quando un'opera costituisca "risultato del lavoro intellettuale dell'autore" piuttosto che mero prodotto dell'elaborazione algoritmica.
Si pone inoltre la questione dell’onere probatorio, non sussistendo parametri oggettivi per dimostrare che l’opera sia effettivamente frutto dell’ingegno umano quando interviene l’IA. L’assenza di standard univoci rende cruciale la documentazione del processo creativo (es. log di prompt iterativi, modifiche post-generazione), come suggerito dalle linee guida dello U.S. Copyright Office (2023) e dalla Raccomandazione UE 2024/231 , che incentivano la tracciabilità delle scelte umane.
Quanto al requisito dell’originalità, la sua applicazione risulta complessa in assenza di criteri condivisi per distinguere il contributo creativo umano dall’elaborazione algoritmica. Come evidenziato nel caso Zarya of the Dawn (2023) , prompt generici o non guidati – pur se numerosi – non sono sufficienti a soddisfare il requisito, richiedendosi invece una regia intenzionale (es. definizione di parametri stilistici, integrazioni manuali o riscritture). La giurisprudenza statunitense ed europea sembra convergere verso un’interpretazione “qualitativa” dell’originalità, legata alla paternità delle scelte creative (input umani mirati, editing sostanziale) piuttosto che alla mera quantità di interazioni con il sistema.
Rimangono aperti interrogativi sulla tutela di opere generate attraverso prompt complessi e stratificati, dove l’apporto umano, pur significativo, non è direttamente riconducibile a un singolo atto creativo. In questi casi, la sfida sarà quella di bilanciare la protezione degli autori con il rischio di monopolizzare output influenzati da dati di addestramento preesistenti, spesso frutto di opere terze.
Tali criticità interpretative potrebbero condurre a orientamenti giurisprudenziali disomogenei fino alla definizione di criteri consolidati per identificare la tutelabilità delle opere generate con ausilio dell'IA.
L'articolo 25 introduce inoltre una disposizione che consente "le riproduzioni e le estrazioni da opere o da altri materiali contenuti in rete o in banche di dati a cui si ha legittimamente accesso, ai fini dell'estrazione di testo e di dati attraverso modelli e sistemi di intelligenza artificiale", purché tale utilizzo avvenga conformemente alle disposizioni sulle eccezioni al diritto d'autore previste dagli articoli 70-ter e 70-quater della legge sul diritto d'autore.
Quest’ultima previsione mira a bilanciare due esigenze contrapposte: da un lato, si vuole garantire l'accesso ai dati necessari per l'addestramento dei sistemi di IA, presupposto essenziale per il loro sviluppo; dall'altro, si mira a tutelare i legittimi interessi economici e morali dei titolari dei diritti d'autore. La soluzione adottata si allinea con l'eccezione per text and data mining già prevista dalla direttiva 2019/790/UE sul diritto d'autore nel mercato unico digitale.
Il terzo pilastro del sistema di tutele è rappresentato dalla delega al Governo contenuta nell'articolo 24, terzo comma, per "definire organicamente la disciplina dei casi di realizzazione e di impiego illeciti di sistemi di intelligenza artificiale". I principi e criteri direttivi della delega includono la previsione di strumenti inibitori e sanzionatori, l'introduzione di fattispecie di reato autonome incentrate sull'omessa adozione di misure di sicurezza, e la definizione di meccanismi di imputazione della responsabilità che tengano conto "del livello effettivo di controllo dei sistemi predetti da parte dell'agente".
Di particolare interesse è la previsione di cui alla lettera d), che delegando al Governo la regolamentazione della responsabilità civile per danni causati da sistemi di IA, prescrive una "specifica regolamentazione dei criteri di ripartizione dell'onere della prova, tenuto conto della classificazione dei sistemi di intelligenza artificiale e dei relativi obblighi" previsti dal regolamento europeo, prefigurando in tal modo un regime probatorio agevolato per i danneggiati.
6. AMBITI SETTORIALI STRATEGICI
Il disegno di legge dedica particolare attenzione ad alcuni ambiti settoriali ritenuti strategici per l'adozione dell'intelligenza artificiale: la sanità, il mondo del lavoro e l'attività giudiziaria. Per ciascuno di questi settori, il legislatore ha predisposto disposizioni specifiche che declinano i principi generali alla luce delle peculiarità e delle esigenze di tutela proprie di ciascun contesto.
6.1 Intelligenza artificiale in ambito sanitario
La sanità rappresenta uno dei settori di maggiore potenzialità applicativa per l'IA, con evidenti benefici in termini di precisione diagnostica, personalizzazione delle cure e ottimizzazione delle risorse. Gli articoli 7 e 8 del disegno di legge disciplinano l'utilizzo dei sistemi di IA in questo ambito, delineando un equilibrio tra innovazione tecnologica e tutela della relazione terapeutica.
L'articolo 7 stabilisce che l'utilizzo di sistemi di IA "contribuisce al miglioramento del sistema sanitario, alla prevenzione, alla diagnosi e alla cura delle malattie", ma al contempo vieta che l'introduzione di tali tecnologie possa "selezionare e condizionare l'accesso alle prestazioni sanitarie secondo criteri discriminatori".
Al quinto comma viene sancito il principio secondo cui i sistemi di IA in ambito sanitario "costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa agli esercenti la professione medica". Tale disposizione cristallizza un modello di assistenza sanitaria potenziata dall'IA, in cui la tecnologia non sostituisce bensì affianca le capacità del medico, il quale deve mantenere la piena responsabilità decisionale.
L'articolo 8 affronta invece il tema cruciale dell'accesso ai dati per la ricerca medico-scientifica, dichiarando di "rilevante interesse pubblico" i trattamenti di dati personali eseguiti per finalità di ricerca e sperimentazione scientifica nella realizzazione di sistemi di IA in ambito sanitario. La norma autorizza, a specifiche condizioni, l'uso secondario di dati sanitari privi di elementi identificativi diretti, semplificando il quadro normativo in materia di trattamento dei dati per finalità di ricerca.
Particolarmente innovativa appare la previsione del secondo comma dell'articolo 9, che istituisce, attribuendone la titolarità all'Agenzia nazionale per i servizi sanitari regionali (AGENAS), "una piattaforma di intelligenza artificiale" finalizzata a erogare servizi di supporto ai professionisti sanitari, ai medici e agli utenti del Servizio sanitario nazionale.
6.2 Intelligenza artificiale nel mondo del lavoro
Il settore lavoristico rappresenta un ambito particolarmente sensibile per l'applicazione dell'IA, in quanto l'automazione di processi decisionali relativi alla gestione del personale implica potenziali rischi in termini di discriminazione algoritmica e compressione dei diritti dei lavoratori.
Gli articoli 11 e 12 del disegno di legge affrontano queste tematiche, stabilendo principi e istituendo strumenti di governance specifici. L'articolo 11, in particolare, sancisce che l'IA è impiegata per "migliorare le condizioni di lavoro, tutelare l'integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone". Al contempo, prescrive che l'utilizzo dell'IA in ambito lavorativo debba essere "sicuro, affidabile, trasparente" e non possa svolgersi "in contrasto con la dignità umana né violare la riservatezza dei dati personali".
Di particolare rilievo è il secondo comma della disposizione in esame, che impone al datore di lavoro o al committente di informare il lavoratore dell'utilizzo dell'IA, richiamando gli obblighi informativi già previsti dall'articolo 1-bis del decreto legislativo n. 152/1997, introdotto per recepire la direttiva UE 2019/1152 al fine di garantire la trasparenza nell'utilizzo degli strumenti algoritmici nel rapporto di lavoro, consentendo al lavoratore di conoscere quando e come le decisioni che lo riguardano vengono assunte o influenzate da sistemi automatizzati.
L'articolo 12 istituisce presso il Ministero del lavoro e delle politiche sociali un "Osservatorio sull'adozione di sistemi di intelligenza artificiale nel mondo del lavoro", con il compito di definire una strategia sull'utilizzo dell'IA in ambito lavorativo, monitorarne l'impatto sul mercato e identificare i settori maggiormente interessati da queste tecnologie. L'Osservatorio è inoltre chiamato a promuovere "la formazione dei lavoratori e dei datori di lavoro in materia di intelligenza artificiale", riconoscendo l'importanza cruciale delle competenze digitali nell'era dell'automazione.
6.3 Intelligenza artificiale nell'attività giudiziaria
L'applicazione dell'IA nel settore della giustizia rappresenta uno degli ambiti più delicati, in quanto coinvolge direttamente la tutela di diritti fondamentali e l'esercizio della funzione giurisdizionale, nucleo essenziale della sovranità statale. L'articolo 15 del disegno di legge affronta questa tematica con particolare cautela, tracciando limiti precisi all'automazione decisionale in ambito giudiziario.
Il primo comma sancisce che "è sempre riservata al magistrato ogni decisione sull'interpretazione e sull'applicazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti". Contrariamente a una lettura restrittiva che escluderebbe l'IA dall'attività giudiziaria, la disposizione configura un modello di integrazione tecnologica in cui l'intelligenza artificiale si pone come strumento di supporto al ragionamento giuridico, ferma restando la centralità decisionale del giudice. Non si delinea quindi un divieto di utilizzo dell'IA, ma piuttosto un principio di supervisione umana finale che rispecchia il paradigma del "human in the loop" già riscontrato nelle disposizioni riguardanti la pubblica amministrazione e l'ambito sanitario.
Il secondo comma delinea più specificamente gli ambiti applicativi dell'IA nel settore giudiziario, focalizzandosi sulle attività amministrative e di supporto: "l'organizzazione dei servizi relativi alla giustizia", "la semplificazione del lavoro giudiziario" e "le attività amministrative accessorie". Questa tripartizione funzionale evidenzia come l'IA possa essere impiegata principalmente per ottimizzare la gestione delle risorse, elaborare statistiche giudiziarie, facilitare la ricerca giurisprudenziale e assistere nella redazione di atti standardizzati. La formulazione della norma non esclude che i sistemi di intelligenza artificiale possano fungere da supporto anche nell'attività di documentazione e analisi preliminare propedeutica all'attività decisionale, sempre nel rispetto del principio, sancito dal primo comma, che riserva al magistrato la decisione finale sull'interpretazione della legge, sulla valutazione dei fatti e delle prove e sull'adozione dei provvedimenti.
Di particolare interesse è il terzo comma, che prevede un meccanismo di autorizzazione preventiva per la sperimentazione e l'impiego dei sistemi di IA negli uffici giudiziari ordinari. Tale autorizzazione, di competenza del Ministero della giustizia, deve essere rilasciata "sentite le autorità nazionali di cui all'articolo 20", ovvero AgID e ACN, in modo da garantire un controllo centralizzato sull'introduzione di tecnologie algoritmiche nel sistema giudiziario, prevenendo iniziative frammentarie o non adeguatamente valutate.
Il quarto comma, dedicato alla formazione dei magistrati e del personale amministrativo in materia di IA, completa il quadro prevedendo "attività didattiche" finalizzate alla "formazione digitale" e alla "sensibilizzazione sui benefici e rischi". Tale disposizione riconosce che l'efficace integrazione dell'IA nel sistema giudiziario richiede non solo adeguate infrastrutture tecnologiche, ma anche competenze specifiche da parte di tutti gli operatori coinvolti.
7. STRUMENTI DI PROMOZIONE
Il disegno di legge affianca alla dimensione regolativa norme volte a sostenere lo sviluppo dell'ecosistema italiano dell'IA secondo un approccio che riflette la consapevolezza che una regolamentazione efficace dell'IA richiede non solo vincoli e presidi a tutela dei diritti, ma anche strumenti di incentivazione che favoriscano l'innovazione responsabile e la creazione di competenze.
L'articolo 23 rappresenta il perno della strategia di promozione delineata dal disegno di legge, autorizzando investimenti fino a un miliardo di euro "per supportare lo sviluppo di imprese operanti nei settori dell'intelligenza artificiale, della cybersicurezza e del calcolo quantistico". Tali investimenti, da effettuarsi mediante il Fondo di sostegno al venture capital di cui all'articolo 1, comma 209, della legge n. 145/2018, possono assumere la forma di partecipazioni nel capitale di rischio sia per le piccole e medie imprese con elevato potenziale di sviluppo e innovative, in fase di sperimentazione, costituzione, avvio o sviluppo, sia per le imprese, anche diverse dalle PMI, con elevato potenziale di sviluppo e altamente innovative, da promuovere come "campioni tecnologici nazionali".
La gestione di tali investimenti viene affidata alla società di gestione del risparmio di cui all'articolo 1, comma 116, della legge n. 145/2018 (Invitalia Ventures SGR), con la partecipazione, negli organi di governo dei fondi, di rappresentanti della Presidenza del Consiglio dei ministri, del Ministero delle imprese e del made in Italy e dell'Agenzia per la cybersicurezza nazionale.
Un secondo filone di intervento riguarda la formazione e lo sviluppo delle competenze. L'articolo 22, in particolare, prevede misure di sostegno ai giovani e al sistema educativo, tra cui l'inserimento nei piani didattici personalizzati delle scuole secondarie di secondo grado di "attività volte all'acquisizione di ulteriori competenze attraverso esperienze di apprendimento presso le istituzioni della formazione superiore".
Il medesimo articolo prevede inoltre una modifica al regime fiscale agevolativo per i lavoratori rimpatriati di cui al decreto legislativo n. 209/2023, estendendone l'applicazione anche a coloro che "hanno svolto un'attività di ricerca anche applicata nell'ambito delle tecnologie di intelligenza artificiale".
Un terzo ambito di promozione riguarda l'applicazione sperimentale dell'IA nei servizi pubblici. L'articolo 21 autorizza la spesa di 300.000 euro annui per il biennio 2025-2026 per la realizzazione di "progetti sperimentali volti all'applicazione dell'intelligenza artificiale ai servizi forniti dal Ministero degli affari esteri e della cooperazione internazionale".
Infine, l'articolo 24 contiene una delega al Governo per l'adeguamento della normativa nazionale al regolamento europeo sull'IA, i cui principi e criteri direttivi includono anche misure di promozione, quali la "valorizzazione delle attività di ricerca e di trasferimento tecnologico in materia di intelligenza artificiale svolte da università, istituzioni AFAM, ITS Academy ed enti pubblici di ricerca".
Il quadro complessivo degli strumenti di promozione delineato dal disegno di legge evidenzia la volontà di adottare un approccio integrato allo sviluppo dell'IA, che combini incentivi economici, formazione del capitale umano e sperimentazioni nel settore pubblico. Tuttavia, l'efficacia di tali misure dipenderà in larga misura dalla loro concreta implementazione e dal coordinamento con altre politiche settoriali, in particolare quelle relative all'innovazione, alla ricerca e alla formazione.
8. CONCLUSIONI: LUCI E OMBRE
L'analisi del disegno di legge rivela un quadro normativo articolato, che tenta di bilanciare l'esigenza di promuovere l'innovazione tecnologica con la necessità di tutelare i diritti fondamentali potenzialmente minacciati dall'IA. L'impianto complessivo presenta punti di forza significativi, ma anche nodi critici.
Tra gli aspetti più convincenti va annoverata la scelta di adottare un approccio basato sui principi, che antepone alle disposizioni tecniche una solida cornice di valori di matrice antropocentrica, fornendo in tal modo agli interpreti criteri ermeneutici per affrontare le inevitabili lacune e ambiguità di una normativa che si confronta con una tecnologia in rapida evoluzione.
Un secondo punto di forza risiede nel sistema di governance diarchico, che affida le funzioni regolatorie a due autorità specializzate, AgID e ACN, garantendo un equilibrio tra promozione dell'innovazione e tutela della sicurezza che appare particolarmente adatto a gestire le molteplici dimensioni dell'IA per il governo delle quali si richiedono competenze trasversali.
Apprezzabile risulta anche l'attenzione dedicata ai settori strategici di applicazione dell'IA, con disposizioni specifiche per ambiti come la sanità, il lavoro e la giustizia. Questa modulazione settoriale della disciplina consente di adattare i principi generali alle peculiarità dei diversi contesti applicativi, garantendo una regolamentazione più granulare e mirata.
Non mancano, tuttavia, profili di criticità che meritano attenta considerazione.
Un primo nodo problematico riguarda la clausola di invarianza finanziaria contenuta nell'articolo 27 che rischia di compromettere l'efficacia dell'intero impianto normativo, in quanto l’adozione dell'IA richiede investimenti significativi sia in termini di infrastrutture tecnologiche che di formazione del personale delle amministrazioni coinvolte.
Un secondo elemento critico concerne l'ampiezza delle deleghe legislative contenute negli articoli 16 e 24, che rimettono al Governo la definizione di aspetti cruciali della disciplina, quali il regime di responsabilità civile per i danni causati da sistemi di IA e le fattispecie di impiego illecito. Sebbene la tecnica della delega sia comprensibile in un settore tecnicamente complesso e in rapida evoluzione, l'estensione delle materie delegate e la genericità di alcuni criteri direttivi sollevano interrogativi sulla reale incisività del disegno di legge in esame.
Il disegno di legge italiano sull'IA rappresenta, in definitiva, un primo passo verso la costruzione di un ecosistema normativo adeguato alla complessità della rivoluzione degli algoritmi di IA in corso, la cui efficacia dipenderà non solo dalla qualità tecnica delle disposizioni, ma anche dalla capacità del sistema istituzionale di adattarsi a un contesto tecnologico in continua trasformazione, mantenendo fermo l'orizzonte dei valori fondamentali di riferimento tra