L’avvento dell’intelligenza artificiale (IA) sta ridefinendo il panorama tecnologico globale, offrendo straordinarie opportunità per l’innovazione in numerosi settori. Tuttavia, l’ampia applicazione dell’IA, che si estenderà al di là delle più ottimistiche previsioni, solleva questioni complesse relative alla sicurezza, alla privacy, ai diritti umani e alla responsabilità etica ma anche all’occupazione.

E’ in questo contesto di grandi attese e profonde incertezze che il Governo Italiano ha varato, il 23 Aprile scorso, lo schema di un Disegno di legge “Recante disposizioni e delega al Governo in materia di intelligenza artificiale” per fornire un primo quadro normativo che guidi lo sviluppo e l’uso dell’IA in maniera responsabile e centrata sull’uomo.

Finalità e ambito di applicazione del Disegno di Legge

La norma proposta al Parlamento mira a stabilire principi chiari per la ricerca, la sperimentazione, lo sviluppo, l’adozione e l’applicazione dell’IA. Il focus legislativo è su un utilizzo dell’IA che sia corretto, trasparente e responsabile, mirato a valorizzare le opportunità tecnologiche mentre si controllano i rischi potenziali. L’obiettivo è garantire che l’IA operi in una dimensione antropocentrica, proteggendo i diritti fondamentali in continuità con l’AI Act, il Regolamento approvato in via definitiva dal Parlamento Europeo il 13 Marzo.

Principi fondamentali

Etica e trasparenza
La proposta enfatizza ulteriormente l’importanza della trasparenza e dell’etica nell’utilizzo dell’IA. Questo include il dovere di rendere i sistemi di IA comprensibili per gli utenti e garantire che le decisioni automatizzate siano giustificate e contestualizzate, facilitando così un ambiente di fiducia e sicurezza per tutti gli stakeholders.

Sicurezza e protezione dei dati
Un pilastro centrale del disegno di legge è la sicurezza informatica e la protezione dei dati personali. Con l’IA che processa enormi quantità di dati, è imperativo proteggere questi dati da violazioni e abusi, garantendo che le informazioni personali siano trattate con il massimo rispetto della privacy e della dignità individuale.

Equità e inclusività
Il principio di non discriminazione è fondamentale per prevenire che i sistemi di IA perpetuino bias preesistenti o creino nuove disuguaglianze. Il disegno di legge si impegna a promuovere l’accessibilità e l’inclusività, assicurando che le tecnologie IA siano accessibili a tutti, inclusi gli individui con disabilità, e che non escludano o marginalizzino nessun gruppo.

Impatto settoriale e applicazioni specifiche dell’IA

Sanità

Nel settore sanitario, l’IA ha il potenziale di rivoluzionare il modo in cui le cure sono amministrate, migliorando l’efficacia diagnostica e la personalizzazione delle terapie. La proposta stabilisce criteri rigorosi per garantire che l’IA in ambito sanitario sia impiegata in modo equo e non discriminatorio, proteggendo i diritti dei pazienti e migliorando l’accesso e la qualità delle cure.

Ambito lavorativo

Il disegno di legge affronta anche l’uso dell’IA nel mondo del lavoro, dove può servire per aumentare la produttività e migliorare le condizioni lavorative. Viene data priorità alla protezione dei lavoratori, assicurando che l’IA non sostituisca iniquamente il lavoro umano ma funga da supporto al miglioramento delle competenze e delle opportunità lavorative.

Pubblica Amministrazione

Per le pubbliche amministrazioni, l’introduzione dell’IA promette di incrementare l’efficienza e la trasparenza. Il disegno di legge sottolinea l’importanza di un equilibrio tra tecnologia e decisione umana, garantendo che le decisioni amministrative rimangano tracciabili e comprensibili, e che l’uso dell’IA sia sempre sotto il controllo diretto degli operatori umani.

Giustizia

Nell’attività giudiziaria i sistemi di intelligenza artificiale dovranno essere utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale. Il Ministero della giustizia disciplinerà l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari ordinari. Per le altre giurisdizioni l’impiego è disciplinato in conformità ai rispettivi ordinamenti.

La nuova Governance italiana dell’intelligenza artificiale

Il Governo prevede la nomina dell’Agenzia per l’Italia Digitale (AgID) e dell’Agenzia per la Cybersicurezza Nazionale (ACN) come Autorità Nazionali per l’Intelligenza Artificiale (AI). Questa mossa rappresenta un passo significativo nel rafforzamento del quadro normativo nazionale e dell’Unione Europea in materia di AI, delineando specifiche responsabilità e poteri per queste due agenzie chiave.

La divisione delle responsabilità tra l’AgID e l’ACN è delineata per garantire una gestione efficace e una regolamentazione della tecnologia AI. L’AgID sarà principalmente responsabile della promozione dell’innovazione e dello sviluppo dell’intelligenza artificiale. Questo include la definizione delle procedure e l’esercizio delle funzioni di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi AI.

D’altra parte, l’ACN avrà un ruolo cruciale nella vigilanza dei sistemi di intelligenza artificiale, con un occhio particolare alla cybersicurezza. Sarà responsabile delle attività ispettive e sanzionatorie e collaborerà alla promozione dello sviluppo dell’AI, specialmente in termini di sicurezza informatica.

Un aspetto innovativo del disegno di legge è l’istituzione di un Comitato di coordinamento presso la Presidenza del Consiglio dei ministri. Questo comitato, composto dai direttori generali delle due agenzie e dal Capo del Dipartimento per la trasformazione digitale, è incaricato di assicurare il coordinamento e la collaborazione con altre pubbliche amministrazioni e autorità indipendenti. Questo dovrebbe facilitare un approccio più integrato e sinergico nello sviluppo e nell’implementazione delle tecnologie AI.

Le due Autorità lavoreranno anche congiuntamente per istituire e gestire spazi di sperimentazione, cruciali per la realizzazione di sistemi di intelligenza artificiale conformi alla normativa. Questi spazi permetteranno di testare nuove soluzioni AI in un ambiente controllato, stimolando ulteriormente l’innovazione e l’adeguamento alle norme vigenti.

Restano ferme le competenze, i compiti e i poteri del Garante per la protezione dei dati personali.

Le modifiche al TUSMA: la “bollinatura” obbligatoria per i contenuti generati dalla IA

La normativa in questione prevede l’aggiunta di un articolo 40 bis al TUSMA secondo cui qualunque contenuto informativo — testuale, fotografico, audiovisivo e radiofonico — diffuso tramite piattaforme di servizi audiovisivi e radiofonici, che sia stato creato o alterato in modo significativo mediante l’utilizzo di intelligenza artificiale, debba essere chiaramente identificato come tale. Gli operatori dei media dovranno inserire un segno identificativo, come una filigrana o un annuncio audio, marcato con l’acronimo “IA”. Questo segno deve essere chiaramente visibile e riconoscibile dagli utenti, garantendo che ogni modifica o creazione assistita da IA sia immediatamente evidente.

Dettagli della Regolamentazione
L’identificazione è richiesta sia all’inizio che alla fine di ogni trasmissione o contenuto, così come dopo ogni interruzione pubblicitaria. Questo requisito assicura che gli spettatori siano costantemente informati della natura del contenuto che stanno consumando, aumentando la consapevolezza sull’uso dell’IA nei media. Tuttavia, la norma prevede alcune eccezioni importanti: i contenuti che rientrano nelle categorie di opere manifestamente creative, satiriche, artistiche o fittizie sono esentati dall’obbligo di inserimento del segno identificativo. Questa distinzione è cruciale per non soffocare la libertà creativa e satirica, fondamentale in una società democratica.

Promozione della co-regolamentazione
Successive disposizioni spingono verso una co-regolamentazione e autoregolamentazione tra i fornitori di servizi di media e le piattaforme di condivisione video. L’Autorità è incaricata di promuovere codici di condotta che aiutino a standardizzare e implementare queste nuove regole, assicurando che l’industria dei media aderisca efficacemente alle linee guida senza compromettere l’innovazione.

Intelligenza artificiale: nuovi reati e aggravanti nel Codice Penale e la delega per la revisione del Codice di Procedura Penale

Il DDL introduce modifiche significative alla disciplina penale per affrontare i rischi associati all’uso di sistemi di intelligenza artificiale in attività criminose. In particolare, si prevede un aumento delle pene per i reati commessi mediante l’impiego di sistemi di IA, considerati particolarmente insidiosi quando ostacolano la difesa pubblica o privata o quando aggravano le conseguenze del reato. Questo riflette la consapevolezza crescente della capacità dell’IA di intensificare le dinamiche criminali e di complicare l’azione delle forze dell’ordine.

Ampliamento delle tipologie di reato
La legislazione prevede anche l’introduzione di nuove fattispecie di reato e l’espansione delle circostanze aggravanti per coprire una gamma più ampia di abusi possibili tramite l’IA. Questi includono reati in cui l’IA è usata per propagare danni su larga scala o per compromettere beni giuridici specifici. L’intento è di offrire una risposta legale adeguata alla velocità e alla complessità delle minacce poste dall’uso malevolo dell’IA.

Aggravanti specifiche per manipolazione e disinformazione
Un aspetto critico del disegno di legge riguarda l’utilizzo dell’IA per manipolare o alterare informazioni sensibili, come i risultati delle elezioni. Viene introdotta una circostanza aggravante per chi usa l’IA per diffondere informazioni false che potrebbero alterare il risultato di competizioni elettorali, riflettendo casi già osservati in altre nazioni europee. Inoltre, la legge stabilisce pene severe, da uno a cinque anni di reclusione, per la diffusione illecita di contenuti generati o manipolati con IA, soprattutto se tali atti portano a danni ingiusti.

Sono definite circostanze aggravanti speciali per alcuni reati nei quali l’utilizzo di sistemi di intelligenza artificiale abbia una straordinaria capacità di propagazione dell’offesa.
Infine, attraverso apposita delega, il Governo è chiamato a prevedere:

  1. strumenti tesi ad inibire la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, supportati da un adeguato sistema di sanzioni;
  2. una o più autonome fattispecie di reato, punite a titolo di dolo o di colpa, nonché ulteriori fattispecie di reato, punite a titolo di dolo, dirette a tutelare specifici beni giuridici esposti a rischio di compromissione per effetto dell’utilizzazione di sistemi di intelligenza artificiale;
  3. una circostanza aggravante speciale per i delitti dolosi puniti con pena diversa dall’ergastolo nei quali l’impiego dei sistemi di intelligenza artificiale incida in termini di rilevante gravità sull’offesa;
  4. una revisione della normativa sostanziale e processuale vigente, anche a fini di razionalizzazione complessiva del sistema.

Ambizioni e limiti della proposta del Governo

Benché rappresenti un passo significativo verso un quadro regolamentare più strutturato, il DDL solleva questioni fondamentali sulla sua efficacia pratica e sulla sufficienza dei finanziamenti previsti a sostegno di una tecnologia strategica per l’economia al pari di internet.

La norma si dimostra ambiziosa nel voler disciplinare l’IA nei 5 ambiti elencati: strategia nazionale, Autorità nazionali, azioni di promozione, tutela del diritto di autore e le sanzioni penali, tuttavia, l’ampiezza e la complessità delle applicazioni dell’IA presentano una sfida notevole per l’effettiva implementazione di tali principi. L’intelligenza artificiale, infatti, permea già una varietà di settori economici e istituzionali con dinamiche e complessità diverse, rendendo ardua l’applicazione uniforme di principi generali attraverso una “legge quadro” che non consideri le specificità di ogni ambito.

In termini di finanziamenti, la normativa prevede investimenti per un totale di 1 miliardo di euro nei settori dell’IA, della cybersicurezza e del quantum computing. Sebbene questa cifra possa sembrare considerevole, risulta modesta in confronto agli sforzi compiuti da altre nazioni europee. Ad esempio, la Francia ha destinato circa 7 miliardi di euro. Già questo confronto evidenzia una chiara discrepanza tra le ambizioni italiane e le risorse effettivamente allocate, suggerendo che l’Italia potrebbe restare indietro rispetto ai suoi vicini europei.

In conclusione, benché la bozza di normativa italiana sull’IA rappresenti un proclama di intenti lodevole, le sfide legate alla sua applicazione e il livello di finanziamento rispetto ad altri stati membri dell’UE sollevano interrogativi sulla sua capacità di trasformare principi in pratiche efficaci.

Sarà essenziale il confronto in Parlamento e con le parti sociali per il miglioramento del DDL in fase di approvazione, ma anche un continuo aggiornamento e adeguamento della legge per mantenere il passo con l’evoluzione rapida e complessa dell’intelligenza artificiale nella vita sociale ed economica del Paese.