L'intelligenza artificiale

L'intelligenza artificiale

16 febbraio 2024

COALIZIONE NAZIONALE

Introduzione

L'intelligenza artificiale (IA) fu definita, per la prima volta, nel 1956, da John McCarthy come " the science and engineering of making intelligent machines". All'incirca nello stesso periodo, Alan Turing, nel suo articolo  "Computing Machinery and Intelligence" (1950) proponeva come test per considerare una macchina intelligente l'abilità di emulare così bene il comportamento umano da diventare indistinguibile.

Il test di Touring è una situazione sperimentale consistente in un gioco a tre partecipanti: un uomo A, una donna B e una terza persona C. Quest'ultimo è tenuto separato dagli altri due e, tramite una serie di domande, deve stabilire qual è l'uomo e quale la donna. Dal canto loro, anche A e B hanno dei compiti: A deve ingannare C e portarlo a fare un'identificazione errata, mentre B deve aiutarlo. Affinché C non possa disporre di alcun indizio (come l'analisi della grafia o della voce), le risposte alle domande di C devono essere dattiloscritte o similarmente trasmesse. Il test di Turing si basa sul presupposto che una macchina si sostituisca ad A. In tal caso, se C non si accorgesse di nulla, la macchina dovrebbe essere considerata intelligente, dal momento che sarebbe indistinguibile da un essere umano. La macchina cioè dovrebbe essere considerata come dotata di una "intelligenza" pari a quella dell'uomo.

Oggi, quando pensiamo ad un sistema dotato di intelligenza artificiale, pensiamo ad una macchina in grado di mostrare capacità umane come il ragionamento, l'apprendimento, la pianificazione e la creatività.

Allo stato attuale, lo sviluppo di un sistema di IA può comprendere algoritmi basati su apprendimento, su basi di conoscenza, su inferenza logica e statistica. Modelli di IA di tipo discriminativo vengono addestrati per distinguere  tra categorie di dati (ad es. come  riconoscere immagini di oggetti diversi), i modelli di tipo generativo imparano, invece, a produrre nuovi dati con  caratteristiche simili ai dati originali (ad es. come produrre  testi o immagini di un certo tipo). Nel primo caso, i modelli apprendono una funzione matematica in grado di separare i dati, nell'altro, una che ne rappresenta la distribuzione di probabilità.

L'apprendimento è un processo iterativo ( backpropagation) che consiste nell'ottimizzazione progressiva dei parametri che definiscono il modello di IA, attraverso la misurazione ciclica dell'errore ( loss function) tra il risultato atteso e il risultato prodotto. Esistono tecniche di apprendimento supervisionato, in cui i dati di esempio sono preventivamente etichettati da un essere umano; non supervisionato, in cui l'algoritmo cerca autonomamente di individuare relazioni tra i dati; per rinforzo, in cui il sistema apprende sulla base di penalità o ricompense ricevute dall'ambiente in cui si trova ad agire. Le basi teoriche delle diverse tecniche di IA risalgono al secolo precedente e hanno contribuito allo sviluppo delle prime reti neurali già negli anni 80.

Negli ultimi anni si è registrato un significativo sviluppo delle tecniche sull' apprendimento automatico ( machine learning); l'idea alla base di tale approccio è che gli algoritmi, mediante l'analisi dei dati, possano acquisire autonomamente una certa conoscenza, identificando pattern e relazioni presenti all'interno dei dati stessi. Il motivo per cui, solo adesso, stiamo vivendo un forte progresso di tali tecniche è dovuto a due fattori: il crescente sviluppo di sistemi di calcolo sempre più potenti, come le unità di elaborazione grafica (GPU - Graphics Processing Unit), e la vertiginosa disponibilità di dati su cui addestrare i modelli. Si è così osservato che, all'aumentare dei parametri del modello, raggiunta una soglia di complessità, le performance aumentano sensibilmente. Questo fenomeno (noto come double descent phenomenon) è alla base degli investimenti nei grandi modelli di IA, in grado di considerare un numero di parametri sempre maggiore.

Large Language Models ( LLM) sono modelli generativi che possono prevedere la parola successiva in una frase, basandosi su ciò che hanno appreso. Per definire questi modelli generalmente vengono adottate tecniche di deep-learning su enormi quantità di dati. Il deep-learning utilizza reti neurali artificiali organizzate in diversi strati, o livelli di rappresentazione. Le parole vengono trasformate in vettori all'interno di uno spazio multidimensionale. Parole con significati simili sono rappresentate da vettori che si trovano vicini nello spazio vettoriale. La rappresentazione vettoriale di una parola può variare in base al contesto in cui la parola è utilizzata, permettendo una comprensione più profonda del linguaggio. Modelli di questo tipo sono generalmente utilizzati per il riconoscimento vocale, la traduzione automatica, la risposta a domande; possono scrivere testi adattando lo stile al pubblico di destinazione, riassumere brani, trascrivere il contenuto di un video, inventare storie. L'IA generativa produce risultati statisticamente probabili, ma non necessariamente veri, reali. Ciò suggerisce un'attività di verifica ( fact checking) sui contenuti generati artificialmente. La qualità e la rumorosità dei dati così come le caratteristiche stesse dei modelli, possono far apprendere una distribuzione di probabilità alterata o distorta; in questi casi, il modello potrebbe non essere in grado di distinguere le relazioni causali da quelle spurie o coincidentali, proponendo risposte inesatte, travisanti la realtà.

Lo sviluppo e il sempre più vasto impiego dell'IA interrogano oggi, pur in misura diversa, tutti i settori delle attività umane, dischiudendo scenari densi di potenzialità e, al contempo, di rischi, che si proiettano anche sul piano etico. In corrispondenza di questa evoluzione, molti Paesi - sia nell'ambito di consessi internazionali o sovranazionali, sia a livello interno - hanno cominciato a elaborare, e in alcuni casi a implementare, quadri regolatori organici o almeno interventi puntuali al fine di apprestare una prima risposta alle numerose istanze connesse all'IA. 

Nel presente lavoro, si da conto dell'impatto dell'IA rispetto ai principali filoni tematici delle politiche pubbliche: tutela dei dati personali, attività produttive, lavoro, sanità, cultura, istruzione e ricerca, editoria e diritto d'autore, infrastrutture, ambiente, pubblica amministrazione, contratti pubblici, giustizia, fisco, credito bancario, settore militare e della difesa. Si analizzano anche gli indirizzi e le strategie assunte a livello internazionale, dell'Unione europea e comparato, con riguardo - in particolare - agli ordinamenti statunitense, cinese, francese, tedesco, britannico, portoghese e spagnolo.  

L'Artificial Intelligence Act europeo

È in via di definitiva adozione da parte del Parlamento europeo e del Consiglio, secondo la procedura legislativa ordinaria, la proposta di regolamento, presentata dalla Commissione europea il 21 aprile 2021, recante un quadro giuridico in materia di intelligenza artificiale (esplicitamente denominato "legge sull'intelligenza artificiale").

In esito ai triloghi (negoziati interistituzionali tra i rappresentanti di Parlamento europeo, Consiglio e Commissione per concordare il testo da sottoporre all'approvazione dei due colegislatori), il 9 dicembre 2023 è stato raggiunto un accordo politico provvisorio, con l'obiettivo di approvare in via definitiva la nuova normativa entro la conclusione dell'attuale legislatura europea. L'accordo dovrà ora essere formalmente approvato dal Consiglio (a maggioranza qualificata), e dal Parlamento europeo (a maggioranza dei suoi componenti), al più tardi nella sessione del prossimo aprile. Il 2 febbraio il Comitato dei rappresentanti permanenti degli Stati membri presso l'UE (COREPER), massimo organo preparatorio dei lavori del Consiglio, ha approvato all'unanimità il testo dell'accordo del 9 dicembre.

La presentazione della proposta di regolamento da parte della Commissione europea risponde all'obiettivo di garantire migliori condizioni per lo sviluppo e l'uso dell'IA e rappresentare anche un modello globale per la regolamentazione dell'IA in altre giurisdizioni, promuovendo in tal modo a livello mondiale l'approccio europeo alla regolamentazione dell'IA. Allo stesso tempo, l'intelligenza artificiale può essere fonte di diversi rischi, ad esempio per la salute, la sicurezza e la tutela dei diritti fondamentali. Alcuni modelli particolarmente potenti di IA, il cui utilizzo è assai diffuso, possono comportare addirittura rischi sistemici.

Nel rinviare per gli opportuni approfondimenti al dossier predisposto dall'Ufficio Rapporti con l'Unione europea, qui di seguito sono delineati i punti qualificanti del testo risultante dall'accordo provvisorio.

Oggetto, definizione e ambito di applicazione

Il regolamento ha l'obiettivo di migliorare il funzionamento del mercato interno e promuovere l'adozione di un'intelligenza artificiale affidabile e incentrata sull'uomo, garantendo, nel contempo, un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dell'UE, compresa la democrazia, lo Stato di diritto e la tutela dell'ambiente dagli effetti dannosi dei sistemi di intelligenza artificiale nell'Unione, nonché sostenendo l'innovazione.

La definzione di sistema di IA formulata nel regolamento è quella di un sistema basato su una macchina progettato per funzionare con diversi livelli di autonomia e che può mostrare adattività dopo l'implementazione e che, per obiettivi espliciti o impliciti, deduce, dall'input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

La nuova disciplina non intende introdurre una normazione esaustiva e dettagliata di ogni aspetto connesso all'IA, così definita. Tiene conto che diversi profili della materia sono già riconducibili ad atti legislativi vigenti o in corso di adozione a livello UE (v. infra).

In particolare, il nuovo regolamento introduce: a) regole armonizzate per l'immissione sul mercato, la messa in servizio e l'uso dei sistemi di intelligenza artificiale nell'Unione; b) il divieto di determinate pratiche di intelligenza artificiale; c) requisiti specifici per i sistemi di IA ad alto rischio e obblighi per gli operatori di tali sistemi; d) regole di trasparenza armonizzate per alcuni sistemi di IA; e) regole armonizzate specifiche per l'immissione sul mercato di modelli di IA di uso generale; f) regole sul monitoraggio del mercato, sulla governance e sull'applicazione della vigilanza del mercato stesso; g) misure a sostegno dell'innovazione, con particolare attenzione alle PMI, comprese le start-up.

Il regolamento si applicherà ai soggetti pubblici e privati, all'interno e all'esterno dell'UE, a condizione che il sistema di IA sia immesso sul mercato dell'Unione o che il suo uso abbia effetti su persone situate nell'UE.

Riguarderà sia i fornitori che gli operatori di sistemi di IA ad alto rischio. Gli importatori di sistemi di IA dovranno garantire, in particolare, che il fornitore straniero abbia già eseguito l'appropriata procedura di valutazione della conformità.

Il regolamento prevede inoltre determinati obblighi per i fornitori di modelli di IA per finalità generali, compresi i modelli di IA generativa di grandi dimensioni. Invece, i fornitori di modelli gratuiti e open source saranno esentati dalla maggior parte di questi obblighi (salvo che si tratti di fornitori di modelli di IA per finalità generali che comportano rischi sistemici).

Il regolamento non pregiudicherà le competenze degli Stati membri in materia di sicurezza nazionale. Non si applicherà infatti ai sistemi di IA destinati esclusivamente a scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività, nonché alle attività di ricerca, sviluppo e prototipazione che precedono l'immissione sul mercato o a persone che utilizzano l'IA per motivi non professionali.

Classificazione dei sistemi di IA e pratiche di IA vietate

Seguendo un approccio "basato sul rischio", secondo il quale tanto maggiore è il rischio, quanto più rigorose sono le regole, la nuova disciplina stabilisce obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che l'IA può generare: i) rischio inaccettabile; ii) rischio alto; iii) rischio basso o minimo. Sono stabiliti anche obblighi specifici per la trasparenza.

Pratiche di IA vietate per rischio inaccettabile

Saranno vietati i sistemi di IA che determinano un rischio inaccettabile per la sicurezza, i mezzi di sussistenza e i diritti delle persone. In questa categoria rientrano i sistemi che possono manipolare il comportamento umano come quelli che consentono di attribuire un "punteggio sociale" (social scoring), per finalità pubbliche e private, classificando le persone in base al loro comportamento sociale o alle loro caratteristiche personali, e determinate applicazioni di polizia predittiva.

Sistemi ad alto rischio

Il regolamento considera ad alto rischio un numero limitato di sistemi di IA che possono potenzialmente avere ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali (tutelati dalla Carta dei diritti fondamentali dell'UE).

Prima di immettere un sistema di IA ad alto rischio sul mercato dell'UE, o di farlo entrare in servizio, i fornitori dovranno sottoporlo, in particolare, a una valutazione della conformità. Si impone inoltre agli operatori che siano organismi di diritto pubblico o operatori privati che forniscono servizi pubblici, nonché agli operatori che forniscono sistemi ad alto rischio, di effettuare una valutazione d'impatto sui diritti fondamentali.

I sistemi di IA che costituiscono componenti di sicurezza di prodotti disciplinati dalla legislazione settoriale dell'Unione saranno sempre considerati ad alto rischio, se soggetti a una valutazione della conformità da parte di terzi ai sensi della legislazione settoriale stessa.

I sistemi di IA ad alto rischio implementati da autorità pubbliche o entità che agiscono per loro conto dovranno essere registrati in una banca dati pubblica dell'UE.

Le autorità di vigilanza del mercato contribuiranno al monitoraggio successivo all'immissione sul mercato e potranno, per motivi eccezionali, autorizzare l'immissione sul mercato di una specifica IA ad alto rischio.

Tra i sistemi ad alto rischio rientrano, in particolare, quelli: di identificazione biometrica remota, categorizzazione biometrica e riconoscimento delle emozioni (al di fuori delle categorie vietate); utilizzati come componenti di sicurezza nella gestione e nel funzionamento delle infrastrutture digitali critiche, del traffico stradale e della fornitura di acqua, gas, riscaldamento ed elettricità; finalizzati a determinare l'accesso, l'ammissione o l'assegnazione agli istituti di istruzione e formazione professionale; relativi alla valutazione dell'occupazione, ad ottimizzare la gestione dei lavoratori e l'accesso al lavoro autonomo; usati per determinare l'accesso a servizi e a prestazioni pubblici e privati essenziali; finalizzati alla valutazione dell'affidabilità creditizia delle persone fisiche, alla valutazione dei rischi finanziari, nonché alla determinazione dei prezzi in relazione ad assicurazioni sulla vita e assicurazioni sanitarie; utilizzati nelle attività di contrasto, di gestione della migrazione, dell'asilo e del controllo delle frontiere, di amministrazione della giustizia, nonché nello svolgimento dei processi democratici e per la valutazione e classificazione delle chiamate di emergenza.

Non sono invece inclusi i sistemi di raccomandazione delle piattaforme online di dimensioni molto grandi (utilizzati dalle aziende online per suggerire agli utenti prodotti, servizi o contenuti che potrebbero essere di loro interesse) in quanto sono già disciplinati da altre normative (regolamento sui mercati digitali e regolamento sui servizi digitali).

L'elenco dei sistemi di IA ad alto rischio, che può essere modificato per allineare la normativa all'evoluzione tecnologica, è allegato al regolamento.

Sistemi a rischio minimo

I sistemi di IA a rischio minimo (come videogiochi o filtri spam) saranno esenti da obblighi, ferma restando l'adesione volontaria a codici di condotta, da parte dei fornitori di tali sistemi, ad esempio laddove esista un evidente rischio di manipolazione. Gli utenti dovranno essere consapevoli del fatto che stanno interagendo con una macchina.

La grande maggioranza dei sistemi di IA attualmente utilizzati o il cui utilizzo è probabile nell'UE rientra in questa categoria.

Obblighi di trasparenza per determinati sistemi di IA e modelli di IA per finalità generali

A determinati sistemi di IA sono imposti specifici obblighi di trasparenza, ad esempio laddove esista un evidente rischio di manipolazione (come attraverso l'uso di chatbot); gli utenti dovranno essere consapevoli del fatto che stanno interagendo con una macchina. I fornitori di sistemi di IA, compresi i sistemi di IA per finalità generali (General purpose AI - GPAI), che generano contenuti audio, immagini, video o di testo sintetici, dovranno garantire che i risultati del sistema di IA siano contrassegnati in un formato leggibile dalla macchina e rilevabili come generati o manipolati artificialmente. Anche i deep fake dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni.

Il regolamento prende, quindi, in considerazione i rischi sistemici che potrebbero derivare dai modelli di IA per finalità generali, compresi i modelli di IA generativa di grandi dimensioni (vedi oltre), che possono essere utilizzati per un'ampia serie di compiti e stanno diventando la base di molti sistemi di IA nell'UE. Alcuni di questi modelli potrebbero comportare rischi sistemici se risultano particolarmente efficaci o molto utilizzati. Modelli potenti potrebbero, ad esempio, causare incidenti gravi o essere utilizzati impropriamente per attacchi informatici di vasta portata.

Eccezioni previste per le autorità di contrasto

L'uso dell'IA da parte delle forze dell'ordine ha rappresentato uno dei punti più delicati e controversi del negoziato. Il compromesso raggiunto consente il riconoscimento biometrico da remoto in tempo reale negli spazi accessibili al pubblico solo in alcuni casi.

Si tratta delle seguenti fattispecie: 1) attività di contrasto relative a 16 reati specifici (terrorismo; tratta di esseri umani; sfruttamento sessuale di minori e materiale pedopornografico; traffico illecito di stupefacenti e sostanze psicotrope; traffico illecito di armi, munizioni ed esplosivi; omicidio volontario; lesioni personali gravi; traffico illecito di organi e tessuti umani; traffico illecito di materie nucleari e radioattive, rapimento, sequestro e presa di ostaggi; reati che rientrano nella competenza giurisdizionale della Corte penale internazionale; dirottamento di un aeromobile o una nave; stupro; reati ambientali; furto organizzato o rapina a mano armata; sabotaggio, partecipazione a un'organizzazione criminale coinvolta in uno o più dei reati elencati sopra); 2) ricerca mirata di specifiche vittime, rapimento, tratta e sfruttamento sessuale di esseri umani e persone scomparse; 3) prevenzione di minacce per la vita o l'incolumità fisica delle persone o risposta da una minaccia attuale o prevedibile di attacco terroristico.

L'identificazione biometrica remota in tempo reale da parte delle autorità di contrasto sarà subordinata a un'autorizzazione preventiva rilasciata da un'autorità giudiziaria o amministrativa indipendente. In caso di urgenza debitamente giustificata, tuttavia, si potrà procedere senza un'autorizzazione, purché quest'ultima sia richiesta senza indebito ritardo, al più tardi entro 24 ore; se l'autorizzazione non è concessa, è necessario che tutti i dati e gli output siano soppressi. L'autorizzazione dovrà essere preceduta da una valutazione preventiva d'impatto sui diritti fondamentali e dovrà essere notificata all'autorità di vigilanza e all'autorità per la protezione dei dati interessate

L'uso di sistemi di IA per l'identificazione biometrica remota a posteriori delle persone oggetto di indagine (identificazione di persone in materiale video raccolto in precedenza) richiederà l'autorizzazione preventiva di un'autorità giudiziaria o di un'autorità amministrativa indipendente e la notifica all'autorità per la protezione dei dati e all'autorità di vigilanza del mercato.

Sistemi di IA per finalità generali e modelli fondativi o di base

La nuova disciplina, introdotta nell'accordo di compromesso finale, su richiesta del PE, reca disposizioni dettagliate applicabili alle situazioni in cui i sistemi di IA per finalità generali (general purpose AI) sono utilizzati per scopi per i quali non sono stati intenzionalmente e specificamente progettati e in cui la tecnologia viene successivamente integrata in un altro sistema ad alto rischio. I modelli di IA per finalità generali comprendono i modelli di IA generativa di grandi dimensioni.

È considerato importante che un fornitore che intenda basarsi su un modello di IA per finalità generali disponga di tutte le informazioni necessarie per far sì che il suo sistema sia sicuro e conforme al regolamento. Il regolamento obbliga i fornitori di tali modelli a comunicare determinate informazioni ai fornitori di sistemi a valle. I fornitori dovranno inoltre disporre di politiche in essere atte a garantire il rispetto del diritto d'autore nel corso della formazione dei loro modelli.

Alcuni di questi modelli potrebbero comportare rischi sistemici dato che sono particolarmente efficaci o molto utilizzati.

La Commissione europea ritiene che, allo stato attuale della tecnologia, i modelli di IA per finalità generali che sono stati addestrati utilizzando una potenza di calcolo totale superiore a 10^25 FLOPS comportino rischi sistemici.

L'Ufficio per l'IA (istituito all'interno della Commissione) potrà aggiornare tale soglia alla luce dell'evoluzione tecnologica ovvero integrare il criterio della potenza di calcolo con altri criteri (ad esempio, il numero di utenti o il grado di autonomia del modello).

Sono state inoltre concordate regole specifiche per i modelli fondativi o di base (la cui regolamentazione non era presente nella proposta originaria e che ha rappresentato una tematica particolarmente divisiva nel negoziato): i grandi sistemi in grado di svolgere con competenza un'ampia gamma di compiti distintivi, quali la generazione di video, testi, immagini, il calcolo di dati o la generazione di codici informatici. I modelli di base debbano rispettare specifici obblighi di trasparenza prima di essere immessi sul mercato. È stato introdotto un regime più rigoroso per i modelli di base "ad alto impatto", come GPT-4, per i quali occorre una verifica prima dell'immissione nel mercato con riguardo alla sicurezza informatica e alla trasparenza, nonché una condivisione della documentazione tecnica. Si tratta di modelli di base addestrati con grandi quantità di dati e di complessità, capacità e prestazioni avanzate ben al di sopra della media, che possono diffondere i rischi sistemici lungo la catena del valore.

Misure a sostegno dell'innovazione

Il regolamento contiene diverse misure a sostegno dell'innovazione. In particolare, consente la creazione di spazi di sperimentazione normativa per l'IA (sandbox normativi) e di prova in condizioni reali, che forniscono un ambiente controllato per testare tecnologie innovative per un periodo di tempo limitato, promuovendo in tal modo l'innovazione da parte delle imprese, delle PMI e delle start-up.

Gli Stati membri dovranno istituire almeno un sandbox normativo sull'IA a livello nazionale. Potrà anche essere istituito congiuntamente tra più Stati membri.

Architettura di governance

Le autorità nazionali competenti per la vigilanza del mercato sorveglieranno l'attuazione delle nuove norme a livello nazionale, mentre un Ufficio europeo per l'IA, costituito presso la Commissione europea, garantirà il coordinamento a livello europeo. Ciascuno Stato membro designerà una o più autorità nazionali competenti, incaricate di supervisionarne l'applicazione e l'attuazione, nonché di svolgere attività di vigilanza del mercato.

Un comitato scientifico di esperti indipendenti avrà il compito di segnalare i rischi sistemici e contribuire alla classificazione e alla sperimentazione dei modelli. Un comitato europeo per l'IA, composto dai rappresentanti degli Stati membri, svolgerà il ruolo di piattaforma di coordinamento e di organo consultivo per la Commissione europea. Il Garante europeo della protezione dei dati parteciperà come osservatore.

Si prevede infine l'istituzione di un forum consultivo per i portatori di interessi, come i rappresentanti dell'industria, le PMI, le start-up, la società civile e il mondo accademico.

Sanzioni

Le sanzioni per le violazioni del nuovo regolamento sono state fissate in una percentuale del fatturato annuo globale nell'anno finanziario precedente della società incriminata o in un importo predeterminato, a seconda di quale sia il più elevato.

Più nello specifico, per i sistemi di IA che sono immessi sul mercato o messi in servizio e che non rispettano i requisiti del regolamento, gli Stati membri dovranno stabilire sanzioni effettive, proporzionate e dissuasive, comprese sanzioni amministrative pecuniarie, in relazione alle violazioni, e comunicarle alla Commissione.

Il regolamento stabilisce le soglie da tenere in considerazione: fino a 35 milioni di euro o al 7% del fatturato mondiale totale annuo dell'esercizio precedente (se superiore) per violazioni relative a pratiche vietate o per l'inosservanza di requisiti in materia di dati; fino a 15 milioni di euro o al 3% del fatturato mondiale totale annuo dell'esercizio precedente, per l'inosservanza di qualsiasi altro requisito o obbligo del regolamento, compresa la violazione delle regole relative ai modelli di IA per finalità generali; fino a 7,5 milioni di euro o all'1,5% del fatturato mondiale totale annuo dell'esercizio precedente, per la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in risposta a una richiesta; per ciascuna categoria di violazione, la soglia per le PMI sarebbe l'importo più basso tra i due previsti, mentre per le altre imprese sarebbe l'importo più elevato.

Entrata in vigore

Il regolamento sull'IA sarà pienamente applicabile due anni dopo la sua entrata in vigore, secondo il seguente approccio graduale:

  • 6 mesi dopo l'entrata in vigore, gli Stati membri devono eliminare gradualmente i sistemi vietati;
  • 12 mesi dopo: diventano applicabili gli obblighi relativi alla governance dell'IA per finalità generali;
  • 24 mesi dopo: tutte le regole della legge sull'IA diventano applicabili, compresi gli obblighi per i sistemi ad alto rischio definiti nell'allegato III (elenco dei casi d'uso ad alto rischio);
  • 36 mesi dopo: si applicano gli obblighi per i sistemi ad alto rischio definiti nell'allegato II (elenco della normativa di armonizzazione dell'Unione).

Il regolamento potrà essere modificato mediante atti delegati e di esecuzione, anche per aggiornare la soglia FLOPS (atto delegato), aggiungere criteri per classificare i modelli di IA per finalità generali come modelli che presentano rischi sistemici (atto delegato), modificare le modalità per istituire spazi di sperimentazione normativa ed elementi del piano di prova in condizioni reali (atti di esecuzione). Il regolamento demanda inoltre alla Commissione l'elaborazione di linee guida sull'attuazione pratica di diversi aspetti della disciplina.

Per quanto riguarda i sistemi di IA già immessi sul mercato o messi in servizio, l'accordo di compromesso stabilisce in particolare che: le autorità pubbliche che sono fornitori o utilizzatori di sistemi di IA ad alto rischio avranno quattro anni di tempo per rendere conformi i propri sistemi; i modelli GPAI immessi sul mercato prima della data di applicazione delle disposizioni a loro relative (ossia 12 mesi dopo l'entrata in vigore del regolamento) avranno due anni di tempo dalla data di applicazione di tali disposizioni (quindi 3 anni in totale) per conformarsi.

La posizione negoziale del Governo italiano

Nel corso del complesso negoziato in seno al Consiglio, il Governo italiano si è sempre dichiarato a favore dell'introduzione di un quadro comune di regole sull'intelligenza artificiale, sottolineando l'importanza che il nuovo regolamento tutelasse i diritti fondamentali, imponesse obblighi e sanzioni commisurati al rischio e allo stesso tempo permettesse di mantenere il passo tecnologico e lo slancio verso l'innovazione di altri competitor globali, come Stati Uniti e Cina.

La posizione negoziale italiana, inoltre, si è basata su una visione "umano-centrica", volta a promuovere pertanto la semplificazione e la chiarezza delle definizioni a partire da quelle di IA, sistemi generativi, foundation model.

Pacchetto per l'innovazione in materia di IA a sostegno delle start-up e delle PMI nel settore dell'intelligenza artificiale

Facendo seguito all'accordo politico, il 24 gennaio 2024 la Commissione europea ha varato un pacchetto di misure volto a sostenere le start-up e le PMI europee nello sviluppo dell'intelligenza artificiale. Il pacchetto:

  • la proposta di regolamento che modifica il regolamento (UE) 2021/1173 relativo all'istituzione dell'impresa comune per il calcolo ad alte prestazioni europeo (EuroHPC) per istituire fabbriche di IA, (impresa comune dei supercomputer dell'UE);
  • la decisione istitutiva del richiamato Ufficio per l'IA in seno alla Commissione;
  • la comunicazione sulle start-up e l'innovazione in materia di IA che delinea ulteriori attività chiave.

La Commissione ha adottato anche una comunicazione che delinea l'approccio strategico sull'uso dell'intelligenza artificiale, anticipando e preparandosi all'attuazione del regolamento sull'IA.

IA e tutela dei dati personali

L'evoluzione di sistemi basati sull'intelligenza artificiale e l'applicazione di tale strumento ad ambiti assai diversi e rilevanti pone il tema della sua compatibilità con la tutela dei dati personali.

Basti pensare che i dati, personali e non personali, costituiscono una risorsa determinante per l'intelligenza artificiale, in particolare per i sistemi c.d. machine learning. Da essi dipendono infatti le possibilità di funzionamento del sistema, poiché rappresentano gli input da cui gli algoritmi riescono a trarre risultati. 

Preliminarmente, si ricorda che la tutela dei dati personali a livello europeo è oggetto del c.d. "pacchetto protezione dati", che comprende il Reg. 2016/679 UE (Reg. generale sulla protezione dei dati personali, cd. GDPR), che reca disposizioni direttamente applicabili negli Stati membri, e la  Direttiva 2016/680/UE.

Nell'ordinamento interno, il Codice della privacy (d. lgs. 196/2003) è stato modificato dal d.lgs. 101/2018 e dal d.lgs. 51/2018 al fine di adeguarlo al pacchetto protezione dati.

Per i fini che vengono in rilievo in tale sede, si richiama l'attenzione su talune previsioni del Regolamento GDPR, che riguardano:

  • l'ambito di applicazione territoriale, individuato sulla base del soggetto cui siano riferibili i dati (e non sulla base del luogo in cui è stabilito il gestore);
  • la base giuridica del trattamento, costituita alternativamente dalla necessità o dal consenso;
  • il diritto all'oblio e alla portabilità dei dati;
  • il principio di responsabilizzazione (accountability) del titolare e del responsabile del trattamento;
  • la protezione dei dati by design e by default (vale a dire sia in fase di progettazione sia durante il trattamento);
  • l'obbligo di notifica di eventuali violazioni dei dati (data breach).

Si richiama in particolare l'attenzione sull'articolo 22 del GDPR, a norma del quale l'interessato ha il diritto di non essere sottoposto a una decisione, che produca effetti giuridici che lo riguardino o incida significativamente sulla sua persona,  basata unicamente sul trattamento automatizzato dei dati (salvo il caso di contratto o  consenso, con diritto dell'interessato di ottenere l'intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione, e salvo il caso di previsione, con adeguate misure di garanzia, da parte del diritto dell'Unione o dello Stato membro).

Per quanto concerne la giurisprudenza in materia, si segnala che il Consiglio di Stato (Sez. VI, 13/12/2019, n. 8472) ha precisato che l'utilizzo nel procedimento amministrativo (relativo, nel caso di specie, ai trasferimenti e alle assegnazioni del personale scolastico) di una procedura informatica che attraverso un algoritmo conduca direttamente alla decisione finale deve ritenersi ammissibile, in via generale, nel nostro ordinamento, anche nell'attività amministrativa connotata da ambiti di discrezionalità, a condizione che siano osservati: a) la piena conoscibilità del modulo; b) l'imputabilità della decisione all'organo titolare del potere, cui competono tutte le responsabilità correlate; c) il carattere non discriminatorio dell'algoritmo utilizzato. L'utilizzo di procedure informatizzate – precisa il Consiglio di Stato - non può essere motivo di elusione dei principi che conformano il nostro ordinamento e che regolano lo svolgersi dell'attività amministrativa. In tale contesto il ricorso all'algoritmo va correttamente inquadrato in termini di modulo organizzativo, di strumento procedimentale ed istruttorio, soggetto alle verifiche tipiche di ogni procedimento amministrativo, il quale resta il modus operandi della scelta autoritativa, da svolgersi sulla scorta della legislazione attributiva del potere.

Sul tema specifico dell'utilizzo di sistemi di identificazione biometrica e dell'uso di tali dati da parte di sistemi di intelligenza artificiale si segnala, in primo luogo, la Risoluzione del Parlamento europeo del 6 ottobre 2021 sull'intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale, nella quale:

  • si chiede una moratoria sulla diffusione dei sistemi di riconoscimento facciale a fini di identificazione (salvo l'identificazione delle vittime dei reati), fino a che le norme tecniche non possano essere considerate pienamente conformi ai diritti fondamentali;
  • si chiede un divieto permanente all'utilizzo dei sistemi di analisi e/o riconoscimento automatici negli spazi pubblici di altre caratteristiche umane (ad es. andatura, impronte digitali, DNA, voce);
  • si esprime profonda preoccupazione per l'utilizzo di database privati di riconoscimento facciale da parte delle autorità di contrasto;
  • si esprime profonda preoccupazione sull'uso dell'AI per il controllo delle frontiere esterne con l'uso di sistemi di "rilevamento delle menzogne" e di "analisi dei microgesti" basati sull'AI;
  • si raccomanda l'introduzione del divieto del citizen scoring su larga scala.

Inoltre, si segnala che la proposta di regolamento sull'AI prevede il divieto di utilizzo dell'AI in alcune attività, in quanto determinano un rischio inaccettabile per la sicurezza, i mezzi di sussistenza e i diritti delle persone.

In particolare, sono pratiche proibite, in quanto influiscono negativamente sulla sicurezza o sui diritti fondamentali:

  • la classificazione sociale: classificazione delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali;
  • l'identificazione biometrica e categorizzazione delle persone fisiche che utilizzano caratteristiche sensibili (es. convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza); sarà ancora possibile filtrare set di dati basandosi su dati biometrici nel settore delle attività di contrasto;
  • l'identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale e di raccolta non mirata di immagini facciali da Internet o filmati CCTV per creare database di riconoscimento facciale.

La normativa europea prevede delle eccezioni limitate per scopi di contrasto da parte delle forze dell'ordine, soggette a previa autorizzazione dell'autorità giudiziaria e per elenchi di reati rigorosamente definiti. In particolare, si consente il riconoscimento biometrico da remoto in tempo reale negli spazi accessibili al pubblico solo in alcuni casi quali:

 1) attività di contrasto relative a 16 reati specifici: terrorismo; tratta di esseri umani; sfruttamento sessuale di minori e materiale pedopornografico; traffico illecito di stupefacenti e sostanze psicotrope; traffico illecito di armi, munizioni ed esplosivi; omicidio volontario; lesioni personali gravi; traffico illecito di organi e tessuti umani; traffico illecito di materie nucleari e radioattive, rapimento, sequestro e presa di ostaggi; reati che rientrano nella competenza giurisdizionale della Corte penale internazionale; dirottamento di un aeromobile o una nave; stupro; reati ambientali; furto organizzato o rapina a mano armata; sabotaggio, partecipazione a un'organizzazione criminale coinvolta in uno o più dei reati elencati sopra;

2) ricerca mirata di specifiche vittime, rapimento, tratta e sfruttamento sessuale di esseri umani e persone scomparse;

3) prevenzione di minacce per la vita o l'incolumità fisica delle persone o risposta da una minaccia attuale o prevedibile di attacco terroristico

Il regolamento inoltre considera ad alto rischio alcuni sistemi di IA che possono potenzialmente avere ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali (tutelati dalla Carta dei diritti fondamentali dell'UE). Tali sistemi sono sottoposti ad un procedimento specifico di controllo e valutazione di conformità. Tra i sistemi ad alto rischio rientrano quelli di identificazione e categorizzazione biometrica, e quelli utilizzati nelle attività di amministrazione della giustizia.

Venendo ad ulteriori aspetti legati alla tutela dei dati personali rispetto ai sistemi basati sull'intelligenza artificiale, si segnala, per quanto riguarda l'attività del Garante per la protezione dei dati personali, l'apertura di un'indagine conoscitiva sulla raccolta di dati personali on line per addestrare gli algoritmi di intelligenza artificiale al fine di verificare l'adozione di idonee misure di sicurezza adeguate ad impedire la raccolta massiva (webscraping) di dati personali a fini di addestramento degli algoritmi di intelligenza artificiale da parte di soggetti terzi (comunicato stampa del 23 novembre 2023).

L'indagine riguarda tutti i soggetti, pubblici e privati, titolari del trattamento dei dati, stabiliti in Italia o che offrano servizi in Italia, che mettono a disposizione on line dati personali liberamente accessibili anche dagli spider (vale a dire appositi programmi per ricercare contenuti in rete in modo automatico) dei produttori di algoritmi di intelligenza artificiale, ed è volta a verificare l'adozione di idonee misure di sicurezza adeguate ad impedire la raccolta massiva (webscraping) di dati personali a fini di addestramento degli algoritmi di intelligenza artificiale.

Nel corso dell'indagine saranno acquisiti contributi di associazioni di categoria e di consumatori ed esperti ed esponenti del mondo accademico

Si segnala, inoltre, l'adozione, da parte del Garante, il 31 marzo 2023, di un provvedimento di blocco di ChatGPT, poi revocato a seguito dell'adozione da parte della piattaforma delle misure prescritte.

In particolare, con il provvedimento di limitazione provvisoria del 31 marzo il Garante rilevava la mancanza di un'informativa agli utenti e a tutti gli interessati e di un sistema di verifica dell'età, ma soprattutto l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali allo scopo di "addestrare" gli algoritmi sottesi al funzionamento della piattaforma.

Con successivo provvedimento del 12 aprile il Garante stabiliva alcune prescrizioni e fissava al 30 aprile il termine per adempiervi.

In particolare, il Garante ha richiesto la predisposizione di un'informativa trasparente a facilmente accessibile concernente modalità e logica del trattamento dei dati nonché i diritti degli utenti e degli interessati e la messa a disposizione di strumenti per l'esercizio di tali diritti, con particolare riferimento ai diritti di rettifica e cancellazione e di opposizione.

Quanto alla base giuridica del trattamento dei dati personali degli utenti per l'addestramento degli algoritmi, il Garante ha ordinato a OpenAI di eliminare ogni riferimento all'esecuzione di un contratto e di indicare, invece, in base al principio di accountability, il consenso o il legittimo interesse quale presupposto per utilizzare i dati.

È stata prescritta, inoltre, l'immediata implementazione di un servizio di richiesta dell'età ai fini della registrazione e la predisposizione nonché, entro il 30 settembre, di sistema di verifica dell'età (age verification), in grado di escludere l'accesso agli utenti infratredicenni e ai minorenni per i quali manchi il consenso dei genitori.

Con provvedimento del 28 aprile il Garante ha revocato il blocco, dando atto dell'adozione delle misure imposte.

Peraltro, si segnala che con comunicato del 29 gennaio 2024 il Garante ha reso noto di aver notificato a OpenAI un atto di contestazione ritenendo, all'esito dell'istruttoria svolta a seguito del provvedimento di blocco, che gli elementi acquisiti possano configurare uno o più illeciti rispetto a quanto stabilito dal Regolamento UE. OpenAI avrà 30 giorni per comunicare le proprie memorie difensive.

Si segnala, infine, che il Garante ha sanzionato il comune di Trento per aver condotto progetti di ricerca scientifica utilizzando telecamere, microfoni e reti sociali (comunicato del 25 gennaio 2024). In particolare, i progetti prevedevano, mediante l'utilizzo dell'intelligenza artificiale, l'acquisizione e l'elaborazione di filmati dalle telecamere di videosorveglianza già installate nel territorio comunale per finalità di sicurezza urbana, nonché dell'audio ottenuto da microfoni appositamente collocati sulla pubblica via e la raccolta e l'analisi di messaggi e commenti d'odio pubblicati sui social, rilevando eventuali emozioni negative ed elaborando, sempre attraverso l'utilizzo di sistemi di AI, informazioni d'interesse per le Forze dell'ordine. In particolare,  il Garante ha rilevato che il comune, che non annovera la ricerca scientifica tra le proprie finalità istituzionali, non ha comprovato la sussistenza di alcun quadro giuridico idoneo a giustificare i trattamenti dei dati personali – relativi anche a reati e a categorie particolari – e la conseguente ingerenza nei diritti e nelle libertà fondamentali delle persone.

Venendo alle iniziative in materia presso la Camera dei deputati, si segnala l'interrogazione a risposta immediata in Commissione al Ministro dell'interno 5-01444 Magi, sulle direttive del Ministero in materia di riservatezza dei dati relativi ai partecipanti alle manifestazioni pubbliche, svolta nella seduta della Commissione Affari costituzionali dell'11 ottobre 2023, nella quale l'interrogante ha chiesto cosa prevedano nel dettaglio le policies delle Forze dell'ordine, e quali siano le direttive del Ministero, in materia di riservatezza dei dati relativi a soggetti presenti a manifestazioni e ripresi in operazioni di ordine pubblico, anche al fine di evitare, tra l'altro, che i dati, e in particolare le immagini, possano essere utilizzati in software e sistemi di intelligenza artificiale in violazione della normativa vigente.

Nella risposta il Governo ha assicurato che il trattamento dei dati avviene in conformità a quanto stabilito dal D.M. 24 maggio 2017 e dal d.P.R. 15/2018 e che "le immagini video raccolte dalla Polizia di Stato non sono sottoposte a elaborazioni informatiche a fini identificativi".

Infine, si segnala la recente approvazione da parte dell'Assemblea della Camera, nella seduta del 28 settembre 2023, in sede di esame del disegno di legge di conversione del DL 105/2023 (A.C. 1373-A), dell'ordine del giorno 9/1373-A/56 Enrico Costa, con il quale la Camera impegna il Governo, nell'ambito della più ampia dimensione del riconoscimento della prova «vocale», ad introdurre le opportune modifiche delle norme processuali al fine di istituire una specifica procedura al fine di garantire l'effettuazione di una perizia in caso di sospetti sull'alterazione di file audio o video per mezzo di sistemi di intelligenza artificiale.

L'impiego dell'IA nell'ambito delle attività produttive

Il tema della regolamentazione dell'AI risulta fondamentale in relazione alle sue applicazioni nei diversi settori dell'industria e dei servizi, sia sotto il profilo del sostegno che l'IA può offrire all'incremento della produttività, sia per gli aspetti inerenti alla necessità di garantire una tutela adeguata ai consumatori.

Quanto al primo profilo, già nella Comunicazione "L'intelligenza artificiale per l'Europa" del 2018 (COM(2018) 237 final), la Commissione europea si impegnava ad agevolare l'accesso alle più avanzate tecnologie di IA da parte di tutti i potenziali utilizzatori, in special modo le piccole e medie imprese e le società dei settori non tecnologici, oltre che le amministrazioni pubbliche, sostenendo, tra l'altro, lo sviluppo di una "piattaforma di IA on demand" che, avvalendosi degli oltre 400 poli dell'innovazione digitale, fornisca a tutti gli utilizzatori un unico punto di accesso alle risorse di IA pertinenti nell'UE.

Nello AI Act, in corso di approvazione, sono previste misure per sostenere l'innovazione e l'uso corretto e consapevole dell'intelligenza artificiale, soprattutto da parte delle PMI.

Al fine di cogliere efficacemente le opportunità offerte ai settori produttivi dall'intelligenza artificiale, la Commissione europea il 24 gennaio 2024 ha adottato una Comunicazione (Comunicazione sulla promozione delle start up e dell'innovazione nell'intelligenza artificiale affidabileCOM(2024) 28 final), in cui annuncia il lancio di GenAI4EU, un'iniziativa volta a stimolare l'adozione di sistemi di intelligenza artificiale generativa nei 14 ecosistemi industriali dell'Unione europea. L'iniziativa incoraggerà lo sviluppo di grandi ecosistemi di open innovation stimolando la collaborazione tra start up nel campo dell'intelligenza artificiale ed utilizzatori dell'IA nell'industria e nel settore pubblico. L'Ufficio per l'Intelligenza Artificiale, istituito con Decisione del 24 gennaio 2024 (C(2024)390 final) monitorerà i progressi nello sviluppo di applicazioni dell'IA nell'industria, indicandone anche gli obiettivi. Tra i settori interessati sono compresi la robotica, il settore delle biotecnologie e chimico, il settore dei materiali e delle batterie, il settore manufatturiero e dell'ingegneria e l'aerospazio.

In merito alla necessità di adeguare la normativa consumeristica agli sviluppi tecnologici determinati dal ricorso all'IA, si segnala che già con la direttiva 2019/2161 per una migliore applicazione e una modernizzazione delle norme dell'Unione relative alla protezione dei consumatori sono state approvate norme volte ad aggiornare la normativa in materia di tutela dei consumatori nell'ambito dei mercati on line, dove spesso sono impiegati logaritmi e sistemi di intelligenza artificiale per l'offerta al pubblico di beni e servizi.

Il già citato AI Act prevede poi regole armonizzate specificatamente volte a garantire la trasparenza, la controllabilità, la sicurezza, la non discriminazione e il rispetto della riservatezza da parte dei sistemi di intelligenza artificiale. Specifiche disposizioni sono volte a disciplinare la commercializzazione di modelli e sistemi di intelligenza artificiale e vietare usi manipolatori, ingannevoli e con esiti discriminatori.

Politiche nazionali per la promozione dell'IA nei settori produttivi

L'articolo 1, comma 226 della legge 30 dicembre 2018, n. 145 (Legge di bilancio 2019) ha istituito, nello stato di previsione del Ministero dello sviluppo economico (ora Ministero delle imprese e del made in Italy), un Fondo per interventi volti a favorire lo sviluppo delle tecnologie e delle applicazioni di intelligenza artificiale, blockchain e internet of things, con una dotazione di 15 milioni di euro per ciascuno degli anni 2019, 2020 e 2021.

Le iniziative che il Fondo è destinato a finanziare comprendono i progetti di ricerca e innovazione da realizzare in Italia ad opera di soggetti pubblici e privati, anche esteri, nelle aree strategiche per lo sviluppo dell'intelligenza artificiale, della blockchain e dell'internet of things, funzionali alla competitività del Paese. Per l'attuazione dell'intervento il Ministero si è avvalso della società Infratel Italia S.p.a. mediante apposita convenzione.

I criteri e modalità di utilizzo delle risorse del Fondo sono stati definiti con D.M. 6 dicembre 2021.

Con decreto direttoriale 24 giugno 2022 sono stati stabiliti i termini e le modalità per la presentazione delle domande di agevolazione, nonché i criteri per la concessione e l'erogazione delle agevolazioni.

I soggetti ammissibili sono stati individuati nelle imprese di qualsiasi dimensione, costituite in forma societaria e che esercitano attività industriali di produzione di beni e servizi, agro-industriali, artigiane, di trasporto, di servizi alle imprese che esercitano le predette attività, nonché i centri di ricerca con personalità giuridica.

Le grandi imprese sono ammissibili alle agevolazioni soltanto nell'ambito di un progetto che preveda una collaborazione effettiva con le piccole e medie imprese (PMI) beneficiarie.

Il decreto direttoriale 24 giugno ha disposto l'apertura dell'intervento agevolativo il 21 settembre 2022, con la possibilità di precaricare la documentazione prevista dal bando, a partire dal 14 settembre 2022. Il decreto ha stabilito in 25 milioni di euro la somma a valere sul fondo destinata a progetti volti a favorire lo sviluppo dell'intelligenza artificiale. Per essere ammessi, i progetti presentati dovevano prevedere spese e costi ammissibili non inferiori a 500 mia euro e non superiori a 2 milioni di euro. Le agevolazioni sono state concesse, nei limiti stabiliti dagli articoli 25 e 29 del Regolamento GBER ovvero dal Regolamento de minimis, in misura pari ad una percentuale tra il 50 e il 70 per cento delle spese sostenute per le attività di ricerca industriale, tra il 25 e il 45 per cento per le attività di sviluppo sperimentale e tra il 15 e il 50 per cento per i progetti relativi all'innovazione dei processi e all'innovazione dell'organizzazione. Le percentuali più alte sono state applicate alle imprese di micro e piccola dimensione. Le percentuali più basse alle imprese di grande dimensione e agli organismi di ricerca. Maggiorazioni sono state previste per i progetti di ricerca industriale e sviluppo sperimentale che prevedessero una collaborazione effettiva tra imprese di cui almeno una PMI e una collaborazione effettiva tra imprese e organismi di ricerca.

A seguito dell'esaurimento delle risorse disponibili, con decreto direttoriale 21 settembre 2022 è disposta, a partire dal 22 settembre 2022, la chiusura dello sportello per la presentazione delle domande di agevolazione.

La misura persegue gli obiettivi connessi al programma Industria 4.0 – Transizione 4.0 (per un approfondimento, si veda il tema ad esso dedicato), che comprende una serie di interventi volti a promuovere l'innovazione delle imprese, alcuni dei quali rifinanziati a valere sulle risorse del PNRR (M1C2, investimento 1). Seppur non specificatamente finalizzati allo sviluppo e all'applicazione dell'intelligenza artificiale, gli investimenti promossi da alcuni di tali interventi possono comprendere l'introduzione dell'intelligenza artificiale nei processi produttivi.

In particolare, il credito di imposta, riconosciuto alle imprese dalla legge di bilancio 2021 (art. 1, commi 1051-1063, legge n. 178/2020), come modificata da ultimo con la legge di bilancio 2022 (art. 1, comma 44, legge n. 234/2021) che effettuano fino al 30 giugno 2026 investimenti in beni strumentali nuovi, è volto a promuovere l'acquisto di beni strumentali materiali tecnologicamente avanzati e connessi beni immateriali a vocazione tecnologica, quali software, sistemi, piattaforme e applicazioni di artificial intelligence, nonché tecnologie di machine learning che consentano alle macchine di mostrare un'abilità e/o attività intelligente in campi specifici a garanzia della qualità del processo produttivo e del funzionamento affidabile del macchinario e/o dell'impianto.

Si ricorda poi che un distinto credito di imposta è riconosciuto dalla legge di bilancio 2020 (art. 1, commi 198-209, legge n. 160/2019), come da ultimo modificata dalla legge di bilancio 2022 (articolo 1, comma 45, Legge n. 234/2022) fino al 2031 per gli investimenti in ricerca e sviluppo e fino al 2025 per gli investimenti in innovazione tecnologica.

Politiche nazionali per una tutela dei consumatori adeguata alle trasformazioni tecnologiche

Benché non sia stata adottata una disciplina specifica per la tutela dei consumatori nei confronti delle applicazioni dell'intelligenza artificiale, si segnala che, con D.Lgs. n. 26/2023, in recepimento della direttiva (UE) 2019/2161, sono state introdotte alcune disposizioni volte aggiornare la disciplina consumeristica alla luce dello sviluppo del commercio elettronico e della pubblicità on line e del ricorso da parte dei gestori dei mercati on line di algoritmi per la presentazione di offerte al pubblico (per un approfondimento, si veda il tema in materia di concorrenza e tutela dei consumatori). In particolare, è stato introdotto l'obbligo per il fornitore del mercato on line, prima che un consumatore sia vincolato da un contratto a distanza o da una corrispondente offerta, di indicare al consumatore (art. 49-bis del D.Lgs. n. 206/2005, inserito con D.Lgs. n. 26/2023), tra le altre, informazioni generali, attraverso un'apposita sezione dell'interfaccia online direttamente e facilmente accessibile, sui principali parametri che determinano la classificazione (ossia l'ordine e la modalità di esposizione) delle offerte presentate al consumatore in esito alla sua ricerca.

Inoltre, in base all'articolo 23 del Codice del consumo, come integrato dal D.Lgs. n. 26/2023, sono considerate pratiche commerciali ingannevoli:

-        fornire risultati in risposta a una ricerca on line del consumatore senza indicare ogni eventuale annuncio pubblicitario a pagamento o pagamento specifico per ottenere una classificazione migliore;

-        rivendere biglietti per eventi acquistati utilizzando strumenti automatizzati per eludere qualsiasi limite imposto riguardo al numero di biglietti acquistabili.

L'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo italiano

In riferimento al sistema produttivo italiano, caratterizzato soprattutto da PMI (talvolta ancora sprovviste delle necessarie competenze per gestire l'Intelligenza artificiale), va rilevato come il nostro Paese sia sostanzialmente caratterizzato da una visione e una percezione non omogenee del tema, sebbene il comparto abbia già conosciuto un ampio sviluppo in termini di valore del mercato.

Sulla base di tali premesse, la Commissione X (Attività produttive, commercio e turismo), in data 3 agosto 2023, ha deliberato lo svolgimento dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo italiano. Il termine, inizialmente fissato al 30 novembre 2023, è stato prorogato fino al 1° marzo 2024.

L'indagine conoscitiva, come chiarito nel programma approvato il 3 agosto 2023, è volta a restituire un quadro organico dello stato dell'arte nell'applicazione dell'AI nel sistema industriale italiano e della regolamentazione vigente, con l'intento di proporre soluzioni normative adeguate, a descrivere le opportunità, le criticità e i rischi che l'implementazione dell'AI nei processi produttivi comporta, a rilevare in che modo l'AI possa diventare strategica per lo sviluppo delle attività imprenditoriali, a valutare i principali ostacoli alla competitività delle imprese italiane in rapporto al digital-gap che ancora interessa il nostro sistema produttivo, in particolare il sistema delle PMI, a individuare le metodologie di impiego dell'AI che possano supportare il commercio, l'artigianato e il turismo, a valutare l'impiego dei fondi PNRR per investimenti nell'innovazione, compresa l'intelligenza artificiale, nonché a valutare l'incidenza dei nuovi fenomeni globali per quanto riguarda l'impiego dell'AI nelle realtà imprenditoriali.

Il programma dell'indagine conoscitiva, tuttora in corso, prevede che intervengano in audizione rappresentanti istituzionali, associazioni di categoria e realtà rappresentative del settore, esperti provenienti da atenei e istituti di ricerca, nonché le associazioni dei consumatori.

Nel corso delle audizioni sin qui tenute, è emerso come l'intelligenza artificiale possa contribuire ad aumentare la produttività delle imprese operanti nei diversi settori e trovare applicazione lungo tutta la catena del valore, ottimizzando l'utilizzo delle materie prime, i processi di trasformazione, così come le attività di marketing e nei rapporti commerciali con i clienti, soprattutto nell'ambito dell'e-commerce ma non solo. Sono stati riportati anche esempi che dimostrano come l'IA possa utilmente essere utilizzata per migliorare la sicurezza sul lavoro e degli asset aziendali, così come per meglio garantire la conformità di operazioni e contratti tra privati ai diversi ordinamenti giuridici. È stato inoltre evidenziato come l'intelligenza artificiale, soprattutto generativa, possa – a differenza delle tecnologie dell'automazione tradizionale - migliorare i servizi prestati dalle professioni intellettuali.

Per cogliere tali opportunità, occorre però investire in formazione permanente sia per rafforzare le competenze utili allo sviluppo di tali tecnologie, sia per consentirne la diffusione e un uso consapevole da parte delle imprese, in particolare le PMI, che spesso non hanno le risorse finanziarie, manageriali e umane per investire e impiegare al meglio i sistemi di intelligenza artificiale. Un aspetto affrontato è anche quello della opportunità di adottare a livello europeo e nazionale un approccio strategico allo sviluppo di banche dati e sistemi di intelligenza artificiale, così da ridurre la dipendenza da tecnologie importate dai grandi attori globali.

I soggetti auditi hanno poi rilevato come alcuni rischi connessi al ricorso all'intelligenza artificiale debbano essere valutati dal legislatore e dalle amministrazioni pubbliche competenti per assicurare un quadro normativo adeguato. In particolare, è stato posto l'accento sulla necessità di garantire la trasparenza e l'affidabilità dei sistemi di intelligenza artificiale attraverso attività di certificazione e regole che consentano di spiegare le modalità di funzionamento dei sistemi di intelligenza artificiale, così da evitare i bias e i pregiudizi che possono incidere sulle decisioni assunte avvalendosi di tali tecnologie, avere piena consapevolezza dei limiti e della qualità dei dati processati dai sistemi di IA e salvaguardare la privacy e i diritti dei consumatori. Altro compito della regolamentazione, che pur non deve tradursi in un ostacolo allo sviluppo e alla diffusione dell'intelligenza artificiale, inerisce alla corretta ripartizione delle responsabilità tra l'impresa che sviluppo il sistema di intelligenza artificiale e l'impresa che se ne avvale.

Proposte di legge in materia di intelligenza artificiale assegnate alla Commissione X

Risultano depositate e assegnate alle commissioni X e IX le proposte di legge:

A.C. 1084 (Centemero ed altri, Lega), recante "Disposizioni concernenti l'adozione di una disciplina temporanea per la sperimentazione dell'impiego di sistemi di intelligenza artificiale". La proposta di legge, che consta di due articoli, disciplina la creazione di uno spazio tecnico-normativo sperimentale e temporaneo per le attività che impiegano sistemi di intelligenza artificiale, al fine di promuovere l'innovazione e di consentire lo sviluppo dell'intelligenza artificiale e dei suoi possibili usi nel territorio nazionale (art. 1). A tal fine, l'articolo 2 prevede l'adozione di uno o più regolamenti, con decreto del Presidente del Consiglio dei ministri, per definire le condizioni e le modalità di svolgimento di una sperimentazione, che ha una durata massima di diciotto mesi, prorogabili per un massimo di ulteriori dodici mesi, relativa all'impiego di sistemi di intelligenza artificiale volti al perseguimento dell'innovazione di servizi e di prodotti nei diversi settori. Istituisce, infine, presso la Presidenza del Consiglio, un Comitato permanente per l'intelligenza artificiale.

A.C. 1444 (Cannata e altri, FdI), recante "Disposizioni concernenti la fornitura e l'impiego dei sistemi di intelligenza artificiale". La proposta di legge, composta da 14 articoli, oltre a prevedere anch'essa l'istituzione di un Comitato nazionale per i sistemi di IA presso la Presidenza del Consiglio e la creazione di uno spazio tecnico-normativo sperimentale e temporaneo per le attività che sviluppano i sistemi di IA, al fine di verificarne e valutarne l'impatto nel territorio nazionale, reca disposizioni in materia di:

-  immissione nel mercato, messa in servizio e uso dei sistemi di IA nel territorio nazionale;

- trasparenza dei sistemi di IA destinati a interagire con le persone fisiche, dei sistemi biometrici e dei sistemi di IA utilizzati per generare o manipolare immagini nonché contenuti audio o video;

- non conformità o divieto di determinate pratiche dei sistemi di IA.

L'IA nel campo della cultura

Il tema della cultura viene in rilievo nel report "Governing AI for Humanity" dell'AI Advisory Board dell'ONU soprattutto sotto il profilo della necessità di salvaguardare le diversità e il pluralismo culturale nella regolazione dell'AI.

Lo Steering Committee for Culture, Heritage and Landscape del Consiglio d'Europa in argomento ha adottato:

-        Recommendation on the role of culture, cultural heritage and landscape in helping to address global challenges (2022)

-        E-relevance: The Role of Arts and culture in the Age of Artificial Intelligence (2022)

-        Recommendation on culture's contribution to strengthening the internet as an emancipatory force (2018)

-        Recommendation on Big Data for culture, literacy and democracy (2017)

-        Recommendation on the Internet of citizens (2016)

-        Brochure on Platform Exchanges on Culture and Digitisation

Nel settore dei beni culturali le digital humanities o "informatica umanistica" stanno diventando sempre più uno strumento efficace per la gestione, tutela, salvaguardia e conservazione del patrimonio. Questo campo di studi integra le tecniche informatiche con le discipline umanistiche al fine di rendere più efficaci ed efficienti le ricerche, migliorare il processo di digitalizzazione, semplificarne le estrazioni semantiche e supportare le pubbliche amministrazioni, gli enti gestori e i professionisti del settore.

Nell'AI Act europeo, la cultura è espressamente menzionata fra gli ambiti al cui sviluppo l'intelligenza artificiale è chiamata a concorrere; la diversità culturale è un fattore che dovrebbe essere preservato nella progettazione e nell'uso dell'AI.

livello nazionale, nell'ambito delle politiche per la digitalizzazione dei beni culturali, se per un verso si richiamano le potenzialità dell'AI, per altro verso si evidenzia come «digitalizzare beni non metadatati e/o descritti è fortemente sconsigliato. Questa eventualità potrebbe essere ammissibile [ad esempio nel caso di] campagne sperimentali orientate a una descrizione del bene eseguita online da una comunità di riferimento adeguatamente identificata (possibili progetti di crowdsourcing) o alla descrizione del soggetto con l'uso di algoritmi di intelligenza artificiale» (cfr. Linee guida per la digitalizzazione del patrimonio culturale). Sempre nell'ambito del processo di digitalizzazione dei beni culturali è stato adottato il Piano di gestione dei dati (Data Management Plan, abbreviato DMP) il quale avverte che «qualora i dati fossero stati elaborati tramite metodi di intelligenza artificiale (es. apprendimento automatico di conoscenza da testi o immagini), occorre considerare i limiti degli attuali sistemi di machine learning e valutare attentamente i possibili bias che ne derivano».

Sebbene principalmente concepito quale forma di contrasto alla c.d. cancel culture, un rilievo assume anche l'art. 28 della legge n. 206 del 2023 («Disposizioni organiche per la valorizzazione, la promozione e la tutela del made in Italy»), rubricato «Linee guida per la salvaguardia dell'autenticità storica delle opere musicali, audiovisive e librarie», ai sensi del quale «il Ministero della cultura adotta linee guida per assicurare che le opere musicali, audiovisive e librarie possedute dalle discoteche, cineteche e biblioteche pubbliche, ancorché oggetto di elaborazioni successive, siano conservate e rese fruibili anche nella loro versione originale, al fine di evitare che operazioni creative di riadattamento delle medesime opere con nuovi linguaggi comunicativi e divulgativi sostituiscano l'originale e ne facciano perdere la memoria». Il tema della "novità" dell'opera riadattata con nuovi linguaggi divulgativi e comunicativi rispetto all'originale è adombrato, con specifico riferimento al digitale, anche nel Piano nazionale di digitalizzazione del patrimonio culturale 2022–2023 là dove si evoca il superamento della «funzione ancillare del bene digitale come replica o copia dell'originale fisico e afferma la legittimità di un percorso di conoscenza autonomo, peculiare e connotato da originalità. Originalità che non discende dall'oggetto ma dalla relazione intellettuale da cui il bene digitale prende forma e da cui attinge nuovi significati trasmissibili e non solo "pensabili". Il patrimonio culturale digitale è costituito da oggetti, la cui natura può essere definita sulla base delle relazioni informative che sono in grado di generare. Essi, anche quando collegati ai beni culturali fisici, possiedono un'autonomia ontologica, come ormai attestato da un'ampia letteratura». L'esistenza di tale quid novi fra opera originale e sue rielaborazioni sembra alla base della disposizione in commento e potrebbe assumere rilievo anche in caso di rielaborazioni operate dall'AI.

Con riguardo ai lavori parlamentari, innanzi alla Commissione VII (Cultura, scienza e istruzione) della Camera dei deputati è in corso di svolgimento una indagine conoscitiva sull'impatto della digitalizzazione e dell'innovazione tecnologica sui settori di competenza dell'organo.

Come evidenziato all'atto di deliberare l'avvio dell'iniziativa, lo sviluppo e la diffusione delle tecnologie digitali e di internet, che hanno conosciuto un impetuoso sviluppo a partire dagli anni '80 del secolo scorso, con il nuovo millennio sono venute ad assumere dimensioni quantitative e qualitative tali da investire ogni ambito della vita umana, ridefinendo modelli e paradigmi in campo sociale, economico, culturale e politico (c.d. digital disruption). L'impatto trasformativo della digitalizzazione è stato tale da spingere gli studiosi di diversi ambiti disciplinari a indicare come "era digitale" l'epoca presente, ascrivendo a tali sviluppi una valenza paragonabile a quella dei progressi e delle innovazioni che segnarono la rivoluzione industriale. Lo scenario appena delineato - all'evidenza – rientra sotto molteplici profili nei settori di competenza o, comunque, d'interesse della VII Commissione: ciò sia per gli specifici e distinti temi di cui essa si occupa (cultura, istruzione, università, ricerca di base, sport, editoria); sia, in una logica più complessiva, per l'attenzione da essa tradizionalmente prestata alla dimensione antropologica e umanistica dei fenomeni, la quale, nel caso della digitalizzazione, è assai rilevante, se non addirittura prevalente, attesa la sua capacità d'imprimere mutamenti profondi negli schemi culturali e relazionali degli individui e delle collettività. L'indagine conoscitiva ha due obiettivi, fra loro sinergici. Il primo è quello di aprire una sede di confronto istituzionale con i soggetti pubblici e privati, le realtà nazionali e internazionali, gli operatori di settore, gli accademici e gli esperti per guidare un processo condiviso di emersione, perimetrazione e definizione dei temi, dei problemi e degli interessi in campo. Il secondo è quello di procurare alla Commissione dati, materiali istruttori e contenuti indispensabili per valutare, promuovere e adottare le conseguenti iniziative politiche e legislative, che, in un clima di aperto e costruttivo confronto fra tutte le Istituzioni, possano massimizzare per il nostro Paese i benefici della digitalizzazione, preservandone al contempo le peculiarità legate ai valori e al patrimonio che rendono l'Italia unica sul piano mondiale.

Nell'ambito dell'indagine, ad oggi il tema dell'intelligenza artificiale, è stato toccato con riguardo a editoria e servizio pubblico radiotelevisivo, giornalismo, educazione, cultura, proprietà intellettuale. 

L'indagine conoscitiva è tuttora in corso di svolgimento e non è dunque ancora stato approvato un documento conclusivo.

Si ricorda poi che presso la VII Commissione è stato avviato il dibattito connesso alla risoluzione 7-00185 presentata da Alessandro Amorese (FdI) che impegna il Governo, anche alla luce del quadro normativo europeo in corso di definizione, ad assumere iniziative per garantire il rispetto del diritto d'autore, la tutela dei dati personali, la trasparenza e la tracciabilità dei contenuti generati mediante intelligenza artificiale.

Infine, risulta depositata la proposta di legge A.C. 1514 (Ascani e altri), recante "Disposizioni per assicurare la trasparenza nella pubblicazione e diffusione di contenuti prodotti mediante sistemi di intelligenza artificiale". Il testo, di cui non è stato ancora avviato l'esame, consta di 3 articoli. Per quanto qui interessa, l'art. 2 prevede che tutti i contenuti prodotti mediante sistemi di IA devono essere chiaramente identificati come tali e resi riconoscibili agli utenti attraverso l'apposizione di etichette e di filigrana. I soggetti responsabili della pubblicazione e della diffusione dei contenuti prodotti mediante sistemi di IA, in ogni mezzo trasmissivo, devono fornire, all'inizio e alla fine del contenuto, un'etichetta e un avviso visibili e facilmente comprensibili agli utenti che indichino che il contenuto è stato creato, in tutto o in parte, da un sistema di intelligenza artificiale. L'Autorità per le garanzie nelle comunicazioni, con proprio regolamento, da adottare entro sessanta giorni dalla data di entrata in vigore della legge, stabilisce le modalità attraverso le quali i soggetti responsabili della pubblicazione e della diffusione dei contenuti prodotti mediante sistemi di IA, in ogni mezzo trasmissivo, devono rendere riconoscibile agli utenti che il contenuto è stato creato, in tutto o in parte, da un sistema di intelligenza artificiale.

L'IA nei settori dell'istruzione, dell'università e della ricerca di base

Il settore dell'educazione e della ricerca (intese in senso ampio) risulta fra quelli oggetto di maggiore considerazione negli strumenti internazionali in materia d'intelligenza artificiale.

Si consideri, al riguardo, che il report "Governing AI for Humanity" dell'AI Advisory Board dell'ONU menziona più volte l'educazione fra i settori più toccati dalle potenzialità e al contempo dai rischi della nuova tecnologia, evidenziando fra l'altro «oltre all'uso improprio, notiamo anche preoccupazioni contrastanti circa gli usi mancati, ovvero l'incapacità di sfruttare e condividere i vantaggi delle tecnologie di IA per un eccesso di cautela. Sfruttare l'IA per migliorare l'accesso all'istruzione potrebbe sollevare preoccupazioni sulla privacy dei dati dei giovani e sull'autonomia degli insegnanti. Tuttavia, in un mondo in cui centinaia di milioni di studenti non hanno accesso a risorse educative di qualità, potrebbero esserci degli svantaggi nel non utilizzare la tecnologia per colmare il divario. Per concordare e affrontare questi compromessi è necessario ricorrere a meccanismi di governance internazionale che ci consentano di condividere le informazioni, mettere in comune le risorse e adottare strategie comun» (par. 38).

L'UNESCO ha attivato il progetto "The Artificial Intelligence and the Futures of Learning" nell'ambito del quale sono state adottate diverse iniziative e relazioni: qui la pagina dedicata.

Sulla esigenza della formazione per governare gli sviluppi dell'AI si concentra il rapporto OCSE "Employment Outlook 2023 - Artificial Intelligence and the Labour Market". Dedicato alla ricerca scientifica, e a come incrementarne la produttività tramite la nuova tecnologia, è l'altro rapporto OCSE dal titolo "Artificial Intelligence in Science: Challenges, Opportunities and the Future of Science".

Anche il Consiglio d'Europa da alcuni anni è al lavoro sull'intelligenza artificiale – per una sintesi complessiva cfr. il rapporto The Council of Europe & Artificial Intelligence – e il suo Steering Committee for Education ha prodotto sinora due documenti di rilievo:

-        Report on Artificial Intelligence and Education - A critical view through the lens of human rights, democracy and the rule of law (2022)

-        Recommendation on developing and promoting digital citizenship education (2019)

Un report apposito che si segnala è stato poi recentemente predisposto negli Stati Uniti dallo U.S. Department of Education con il titolo "Artificial Intelligence and the Future of Teaching and Learning. Insights and Recommendations"

• Anche all'interno del regolamento europeo sull'AI l'educazione riceve specifica attenzione. Anzitutto, l'educazione è espressamente menzionata fra gli ambiti al cui sviluppo l'intelligenza artificiale è chiamata a concorrere.

Trattandosi di un diritto fondamentale, sono poi considerati ad altro rischio i sistemi AI di classificazione che si applichino all'educazione. Nel testo del Regolamento si evidenzia infatti come l'impiego di sistemi di AI nel settore sia importante per promuovere un'istruzione e una formazione digitale di alta qualità e per consentire a tutti i discenti e agli insegnanti di acquisire e condividere le abilità e le competenze digitali necessarie, compresa l'alfabetizzazione mediatica e il pensiero critico, per partecipare attivamente all'economia, alla società e ai processi democratici. Tuttavia – prosegue il Regolamento – i sistemi di AI utilizzati nell'istruzione o nella formazione professionale, in particolare per determinare l'accesso o l'ammissione, per assegnare le persone a istituti o programmi di istruzione e formazione professionale a tutti i livelli, per valutare i risultati dell'apprendimento o per valutare le persone,  per valutare il livello di istruzione appropriato per un individuo e influenzare materialmente il livello di istruzione e formazione che gli individui riceveranno o a cui potranno accedere o per monitorare e rilevare il comportamento vietato degli studenti durante i test su esami come parte o come precondizione per la loro istruzione, sono da considerarsi sistemi di IA ad alto rischio (e dunque, da assoggettarsi all'apposita disciplina per essi prevista), poiché possono determinare il corso educativo e professionale della vita di una persona e quindi influenzare la sua capacità di assicurarsi il sostentamento. Se progettati e utilizzati in modo improprio, tali sistemi possono essere particolarmente intrusivi e possono violare il diritto all'istruzione e alla formazione, nonché il diritto a non essere discriminati e a perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di determinate fasce d'età, delle persone con disabilità o di determinate origini razziali o etniche.

Con riguardo alla ricerca di base, il testo enuncia fra le sue finalità quelle di sostenere l'innovazione, rispettare la libertà della scienza e non pregiudicare l'attività di ricerca e sviluppo, e pertanto esclude dal proprio campo di applicazione i sistemi e i modelli di IA specificamente sviluppati e messi in servizio al solo scopo di ricerca e sviluppo scientifici. Inoltre, il Regolamento afferma che la sua vigenza non debba pregiudicare l'attività di ricerca e sviluppo scientifico su sistemi o modelli di IA prima dell'immissione sul mercato o della messa in servizio. Proprio per l'ambito della ricerca il testo riconosce la possibilità di attivare lo strumento della regulatory sandbox.

• A livello di politiche pubbliche nazionali, l'intelligenza artificiale negli ambiti in questione trova considerazione all'interno del Programma strategico Intelligenza artificiale 2022-2024 del 24 novembre 2021, a cura del Ministero dell'Università e della Ricerca, del Ministero dello Sviluppo Economico e del Ministro per l'Innovazione tecnologica e la Transizione Digitale. Il Programma ricorda, anzitutto, che nel 2020 il mercato privato dell'Intelligenza Artificiale in Italia ha raggiunto un valore di 300 milioni di euro, con un aumento del 15% rispetto al 2019 ma pari a circa solamente il 3% del mercato europeo, nettamente inferiore rispetto al peso italiano sul PIL europeo (ca. 12%). All'interno del mercato italiano, un controvalore di 230 milioni di euro (77%) è fornito ad aziende italiane, mentre i restanti 70 milioni di euro (23%) sono esportati verso aziende estere. Rispetto a questi dati, si evidenzia comunque come, per un verso, la comunità scientifica italiana sia molto attiva nel settore dell'intelligenza artificiale; per altro verso, che accanto alle università e ai centri di ricerca, l'Italia dispone di un'ampia rete di centri di trasferimento tecnologico. Nel Programma si sostiene che il Paese debba investire nel sistema di formazione sull'intelligenza artificiale e nello sviluppo delle relative competenze per i cittadini. Ciò innanzitutto per essere all'avanguardia nella ricerca sull'IA, ampliando e migliorando i programmi di dottorato e attraendo o trattenendo i migliori ricercatori. Inoltre, l'Italia deve garantire che l'intero tessuto economico sfrutti le opportunità di produttività insite nella diffusione dell'IA, rafforzando più in generale la componente STEM in tutto il sistema dell'istruzione, così da favorire lo sviluppo di una forza lavoro in grado di interagire con l'IA e sfruttarne i benefici.

Con riferimento specifico agli ambiti qui in esame, nel documento si propongono le seguenti misure:

-        rafforzare il programma Nazionale di Dottorato: aumentare il numero di dottorati di ricerca;

-        attrarre e trattenere i ricercatori: attrarre giovani ricercatori beneficiari di borse di ricerca internazionali di alto profilo come l'ERC;

-        Promuovere corsi e carriere in materie STEM: integrare attività, metodologie e contenuti finalizzati allo sviluppo delle materie STEM nei curricula di tutti i cicli scolastici;

-        Espandere l'IA negli ITS ("Istituti Tecnici Superiori"): espandere i corsi di programmazione e includere corsi e stage di IA applicata in tutti i curricula ITS;

-        Rafforzare l'ecosistema italiano della ricerca sull'IA: creare un'architettura di ricerca su base hub & spoke con competenze territoriali;

-        Lanciare la piattaforma italiana di dati e software per la ricerca sull'IA: creare una connessione strutturale di piattaforme nuove ed esistenti, dati e infrastrutture informatiche dedicate all'IA, con librerie open-source;

-        Creare cattedre italiane di ricerca sull'IA: allocare fondi specifici per un unico Principal Investigator (PI), già iscritto ad università o centri di ricerca nazionali, per favorire la collaborazione con industrie ed enti pubblici;

-        Creare iniziative IA-PRIN per ricerca fondamentale: promuovere bandi dedicati alla ricerca fondamentale sull'IA e sull'IA affidabile;

-        Promuovere campioni nazionali IA multidisciplinari: lanciare sfide su temi specifici con concorrenti valutati sulla base di risultati misurabili;

-        Lanciare bandi di ricerca-innovazione IA per collaborazioni pubblico-private: promuovere progetti su settori prioritari ma con proposte di libera iniziativa volte a trasferire competenze dalla ricerca alle industrie;

-        Finanziare ricerca e applicazioni dell'IA creativa: finanziare progetti che integrano la ricerca accademica nel campo di frontiera dell'IA creativa assieme alle sue applicazioni industriali;

-        Promuovere progetti bilaterali per incentivare il rientro in Italia di professionisti: lanciare bandi per progetti incentrati su temi specifici definiti da priorità italiane cofinanziati da un altro Paese con rientro in Italia di almeno un ricercatore.

A livello di sviluppi operativi e di iniziative istituzionali, si segnala fra l'altro che secondo le Linee guida per le discipline STEM adottate dal MIM con D.M. 184 del 15 settembre 2023 «nell'ambito del coding, del pensiero computazionale e dell'informatica può trovare spazio anche un corretto e consapevole utilizzo dell'intelligenza artificiale (IA) che, in ambito scolastico, può fornire varie opportunità formative, quali la personalizzazione dell'apprendimento e l'ampliamento dell'accesso all'istruzione, soprattutto in contesti in cui le risorse sono limitate. Le risorse digitali, gli strumenti e gli approcci didattici basati sull'IA possono migliorare l'efficacia dell'insegnamento e dell'apprendimento consentendo agli studenti di accedere a contenuti educativi di qualità. L'uso dell'IA in ambito scolastico può favorire negli studenti lo sviluppo di competenze tecniche rilevanti per il mercato del lavoro digitale, preparandoli per le sfide future e le opportunità di carriera legate alla tecnologia. È importante, comunque, affrontare anche i rischi associati all'uso dell'IA che potrebbe portare a una dipendenza eccessiva dalla tecnologia, rischiando di trascurare altre competenze e abilità fondamentali per gli studenti, quali la creatività, il pensiero critico e la risoluzione dei problemi in modo autonomo. Inoltre l'IA potrebbe richiedere la raccolta e l'elaborazione di grandi quantità di dati personali degli studenti, con ricadute sulla sicurezza delle informazioni sensibili. È necessario, pertanto, adottare misure rigorose per proteggere i dati degli studenti e garantire la conformità alle norme sul trattamento dei dati personali».

Sempre il MIM, anche nell'ambito della misura «Scuola di Alta Formazione e formazione obbligatoria per dirigenti scolastici, docenti e personale tecnico-amministrativo» contenuta nel PNRR (M4C1-Riforma 2.2) ha attivato una serie di corsi di formazione per i docenti in materia d'intelligenza artificiale. Cfr. qui il portale dedicato.

Con il D.M. 203 del 20 ottobre 2023 recante «Disposizioni concernenti le aree tecnologiche, le figure professionali nazionali di riferimento degli ITS Academy e gli standard minimi delle competenze tecnologiche e tecnico-professionali», fra l'altro, è stata espressamente prevista la figura del Tecnico superiore per la digitalizzazione dei processi con soluzioni Artificial Intelligence based. Diversi ITS hanno poi attivato corsi in materia.

IA, editoria e diritto d'autore

Con riferimento all'editoria e all'informazione, nell'ambito del Consiglio d'Europa lo Steering Committee on Media and Information Society ha adottato fra gli altri strumenti di rilievo, tutti relativi anche all'impatto dell'AI:

-        Recommendation on the impacts of digital technologies on freedom of expression (2022)

-        Recommendation on combating hate speech (2022)

-        Recommendation on promoting a favourable environment for quality journalism in the digital age (2022)

-        Recommendation on principles for media and communication governance (2022)

-        Recommendation on electoral communication and media coverage of election campaigns (2022)

-        Recommendation on the human rights impacts of algorithmic systems (2020)

-        Guidance note on content moderation (2021)

-        Guidance note on the prioritisation of public interest content online (2021)

Nell'AI Act europeo, per quanto qui interessa si evidenzia come sia opportuno un obbligo di "disclosure", cioè identificazione, in relazione al testo generato o manipolato dall'IA nella misura in cui viene pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico, a meno che il contenuto generato dall'AI non sia stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica sia responsabile editoriale della pubblicazione del contenuto.

livello nazionale, anche al fine di valutare l'impatto dell'AI sul settore, è stato istituito il Comitato per l'intelligenza artificiale istituito presso il Dipartimento per l'informazione e l'editoria della Presidenza del Consiglio dei ministri.

Il Presidente del Comitato, Padre Paolo Benanti, è intervenuto in audizione il giorno 18 gennaio innanzi alla Commissione parlamentare per l'indirizzo generale e la vigilanza dei servizi radiotelevisivi per illustrare i principali filoni di studio e azione negli ambiti dell'editoria, dell'informazione, del giornalismo e della proprietà intellettuale.

Si rappresenta poi che l'art. 1, commi da 315 a 317 e 322 della L. 213/2023 (legge di bilancio 2024), interviene in materia di Fondo per il pluralismo e l'innovazione dell'informazione, contestualmente ridenominato Fondo unico per il pluralismo e l'innovazione digitale dell'informazione e dell'editoria, da un lato novellando direttamente la fonte istitutiva, cioè l'art. 1 della L. 198/2016; dall'altro lato, con una previsione autonoma, autorizzando il Governo ad adottare un regolamento di delegificazione ex art. 17, comma 2, della L. 400/1988, al fine di ridefinire e integrare i criteri per l'erogazione, a valere sul predetto Fondo, dei contributi a sostegno del settore dell'editoria e dell'informazione, individuati dal D.LGS. 70/2017. Fra tali criteri assumono qui rilievo le misure premianti per l'assunzione di giornalisti e di professionisti in possesso di qualifica professionale nel campo della digitalizzazione editoriale, comunicazione e sicurezza informatica finalizzata anche al contrasto del fenomeno delle fake news, con una età anagrafica non superiore ai trentacinque anni. Per approfondimenti, cfr. l'apposito dossier predisposto dal Servizio studi.

Autonoma considerazione merita poi il tema del diritto d'autore e del copyright, la cui protezione si è dimostrata esposta a rischi specifici nell'ambito dei procedimenti di addestramento e generazione da parte dell'AI.  Esso è espressamente considerato nel report "Governing AI for Humanity" dell'AI Advisory Board dell'ONU, in relazione ai rischi specifici che la nuova tecnologia può ingenerare rispetto al lavoro, all'espressione artistica, alla protezione della proprietà intellettuale.

L'AI Act europeo assoggetta al rispetto della normativa unionale in materia tutti i sistemi di AI commercializzati nel mercato europeo e, fra l'altro, impone ai fornitori di servizi di offrire adeguate informazioni dei materiali utilizzati per l'addestramento dell'intelligenza artificiale, anche al fine di consentire la tutela del diritto d'autore e del copyright ai soggetti interessati.

A dimostrazione del rilievo dell'argomento milita la circostanza che attorno ad esso sia scaturita una mole già cospicua di dibattito e di contenzioso, che ha riguardato fondamentalmente, in via di estrema sintesi, due profili:

- nel proprio addestramento, i sistemi d'intelligenza artificiale attingono a una grande massa di dati e contenuti presenti in rete (c.d. webscraping), in alcuni casi protetti da copyright o altri diritti che ne limitano l'accesso o l'utilizzo senza autorizzazione. Al riguardo, fra le vicende dotate di maggior risalto vi è il giudizio promosso dal New York Times contro Open A.I., non ancora definito, con cui il primo contesta alla seconda di avere copiato illegalmente milioni di articoli del quotidiano per addestrare ChatGPT ed altri servizi con lo scopo di fornire articoli ed informazioni con una tecnologia che ora compete con il Times;

- la configurabilità di un diritto di proprietà intellettuale in caso di opera creata dall'AI. Il problema si è già posto in numerose occasioni. Lo United States Copyright Office ha adottato nel 2023 apposite linee guida (Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence) al fine di valutare se un'opera realizzata mediante strumenti d'intelligenza artificiale generativa possa o meno essere coperta da diritto d'autore. In questa prospettiva, secondo un giudizio caso per caso, l'ufficio valuta «se l'"opera" sia fondamentalmente di paternità umana, con il computer [o altro dispositivo] come mero strumento di supporto, o se gli elementi tradizionali di paternità dell'opera (espressione letteraria, artistica o musicale o elementi di selezione, arrangiamento, ecc.) siano concepiti ed eseguiti non dall'uomo ma dalla macchina». Con la conseguenza che «se tutti gli "elementi tradizionali di paternità" di un'opera sono stati prodotti da una macchina, l'opera manca di paternità umana e l'Ufficio non la registrerà [...] Se, tuttavia, un'opera che contiene materiale generato dall'IA contiene anche una paternità umana sufficiente a sostenere una rivendicazione di diritto d'autore, l'Ufficio registrerà i contributi dell'uomo [...] In questi casi, il richiedente deve rivelare il contenuto generato dall'IA che è "più che de minimis"». In senso analogo, anche diverse sentenze hanno negato la possibilità di accordare il diritto d'autore là dove, in relazione a un'opera, manchi il requisito costitutivo della human authorship (cfr. ad esempio United States District Court For The District Of Columbia, Stephen Thaler v. Shira Perlmutter, Civil Action No. 22-1564 BAH). La Cassazione italiana, nell'ambito di una recente ordinanza (Cass. Civ., I, ord. 1107/2023) pur definita nel senso dell'inammissibilità del ricorso a essa sottoposto, ha comunque osservato come la «protezione del diritto d'autore postula il requisito dell'originalità e della creatività, consistente non già nell'idea che è alla base della sua realizzazione, ma nella forma della sua espressione, ovvero dalla sua soggettività, presupponendo che l'opera rifletta la personalità del suo autore, manifestando le sue scelte libere e creative; la consistenza in concreto di tale autonomo apporto forma oggetto di una valutazione destinata a risolversi in un giudizio di fatto» per poi aggiungere, ai fini che qui interessano, come  l' «aver utilizzato un software per generare l'immagine […] è pur sempre compatibile con l'elaborazione di un'opera dell'ingegno con un tasso di creatività che andrebbe solo scrutinato con maggior rigore». La pronuncia, pur non sciogliendo la questione in via definitiva e compiuta, non conclude a priori che il concorso dell'intelligenza artificiale alla realizzazione dell'opera escluda in ogni caso la configurabilità del diritto d'autore, dovendo valutarsi caso per caso.

L'IA nel settore delle infrastrutture, dei contratti pubblici e dell'ambiente

Il tema della digitalizzazione dei contratti pubblici, pur non costituendo una novità (si richiamano in particolare le disposizioni sulla digitalizzazione delle procedure previste dall'art. 44 dell'abrogato d.lgs. n. 50/2016; previsione rimasta in larga parte inattuata), rappresenta certamente uno dei più sentiti all'interno del nuovo Codice dei contratti pubblici (D.Lgs. 36/2023). A tale tematica viene infatti dedicata l'intera Parte II del Libro I, operando una codificazione sistematica e ordinata delle disposizioni inerenti alla digitalizzazione del ciclo di vita dei contratti. All'interno di tale parte spicca, per innovatività, la disposizione recata dall'art. 30, comma 1, che stabilisce che "per migliorare l'efficienza le stazioni appaltanti e gli enti concedenti provvedono, ove possibile, ad automatizzare le proprie attività ricorrendo a soluzioni tecnologiche, ivi incluse l'intelligenza artificiale e le tecnologie di registri distribuiti, nel rispetto delle specifiche disposizioni in materia".

Nel successivo comma 3 vengono fissati i principi che devono guidare le decisioni assunte mediante l'automazione (conoscibilità/comprensibilità, non esclusività e non discriminazione), che trasfondono nel Codice i principali orientamenti emersi nella giurisprudenza amministrativa (si veda la sentenza del Consiglio di Stato n. 8472/2019).

 Da segnalare inoltre che è in corso di svolgimento presso l'8a Commissione del Senato l'indagine conoscitiva sull'utilizzo delle tecnologie digitali e dell'intelligenza artificiale nella pianificazione, nella costruzione e nel monitoraggio delle infrastrutture di trasporto (stradali, autostradali, ferroviarie, portuali, aeroportuali e logistiche). Nel corso delle audizioni finora svolte è stato sottolineato, tra l'altro, che il Codice dei contratti pubblici (D.Lgs. 36/2023) impone l'uso obbligatorio di metodi e strumenti elettronici di modellazione per l'edilizia e le infrastrutture a decorrere dal 1° gennaio 2025 per i lavori di importo superiore a un milione di euro (art. 43, comma 1). In tale contesto, l'intelligenza artificiale – secondo quanto evidenziato nel corso delle audizioni – potrà essere sempre più sfruttata: "la progettazione generativa, ad esempio, è un'applicazione chiave dell'IA, in cui il software crea automaticamente molteplici design possibili e li valuta sulla base di criteri specifici, permettendo a ingegneri e progettisti di esplorare una gamma più ampia di opzioni di design, in modo più veloce" (documento depositato dall'ANCE a margine dell'audizione, pagina 6).

La spinta verso la digitalizzazione investe anche i settori della tutela ambientale, soprattutto grazie ai recenti programmi di investimento avviati nell'ambito della componente 4 della missione 2 (M2C4del PNRR. Si ricordano, in particolare:

- la linea di investimento 3.2 «Digitalizzazione dei parchi nazionali e delle aree marine protette». Per l'implementazione di tale misura, con il D.M. 22 marzo 2022, n. 127 è stata approvata la direttiva agli enti parco nazionali e agli enti gestori delle aree marine. Tale direttiva prevede, tra l'altro, la "elaborazione software dei dati (basata su algoritmi di intelligenza artificiale dello stato dell'arte) volta all'estrazione di parametri omogenei e confrontabili utili alla stima dello di stato di salute di habitat, di misure di biodiversità, di modelli descrittivi e previsionali di scenari di cambiamento ambientale e climatico";

- lo sviluppo di un sistema di monitoraggio del territorio nazionale per affrontare gli scarichi illegali attraverso l'impiego di satelliti, droni e tecnologie di intelligenza artificiale (v. Investimento 1.1 "Realizzazione di un sistema avanzato ed integrato di monitoraggio e previsione").

- la linea di investimento 4.2, finalizzata alla realizzazione di interventi volti alla riduzione delle perdite nelle reti di distribuzione dell'acqua, anche attraverso la digitalizzazione delle reti, da trasformare in reti "intelligenti" (attraverso sistemi di controllo avanzati che consentano di monitorare i nodi principali e i punti più sensibili delle reti), per favorire una gestione ottimale delle risorse idriche, ridurre gli sprechi e limitare le inefficienze.

L'utilizzo dell'IA nel settore della pubblica amministrazione

La rivoluzione digitale attualmente in corso sta investendo, inevitabilmente, anche le pubbliche amministrazioni, ove l'utilizzo degli strumenti tecnologici rappresenta una risorsa estremamente utile, tra l'altro, ad indirizzare l'attività amministrativa verso obiettivi di efficienza, trasparenza e semplificazione.

Il percorso di digitalizzazione dei servizi della PA, avviato quasi vent'anni fa con l'adozione del Codice dell'Amministrazione Digitale (CAD, d.lgs. n. 82 del 2005 e successive modificazioni), che rappresenta tuttora il riferimento normativo principale nell'ambito di tale processo, è stato accelerato dalla pandemia, la quale ha messo in luce l'importanza delle infrastrutture della rete e della connettività. Non a caso, la realizzazione degli obiettivi di crescita digitale, di modernizzazione della pubblica amministrazione e di rafforzamento della capacità amministrativa del settore pubblico sono considerate una priorità per il rilancio del sistema Paese da parte del Piano nazionale di ripresa e resilienza. La digitalizzazione delle pubbliche amministrazioni, in particolare, assume un ruolo centrale nel contesto del Piano, costituendo, assieme alla innovazione e alla sicurezza nella PA, una delle tre componenti progettuali attorno cui si sviluppano le linee di intervento della Missione n. 1.

D'altra parte, i vantaggi a cui può condurre l'uso dei nuovi strumenti offerti dalla tecnologia nel settore pubblico sono molteplici, potendo impattare, migliorandoli, sia sull'attività di gestione interna degli enti e dei processi decisionali, oltre che sull'interazione tra amministrazioni e cittadini e l'erogazione dei servizi pubblici.

In questo contesto, e alla luce del crescente sviluppo che le nuove tecnologie digitali hanno conosciuto negli ultimi anni, anche il settore pubblico si trova, oggi, a dover prendere atto delle potenzialità dell'Intelligenza Artificiale. Mentre, però, il percorso di digitalizzazione delle pubbliche amministrazioni ha potuto essere intrapreso per iniziativa del legislatore, che ha conseguentemente predisposto una serie di disposizioni normative finalizzate a costruire uno spazio amministrativo digitale, l'utilizzo, da parte delle medesime amministrazioni, dei sistemi intelligenza artificiale costituisce, al contrario, un processo spontaneo, che precede l'intervento normativo e ne determina il contenuto.

Ciò vale, in particolare, per i sistemi c.d. di machine learning. Tra i numerosi modelli di intelligenza artificiale che sono stati elaborati nel corso del tempo possono, infatti, distinguersi gli algoritmi condizionali da quelli basati sul machine learning. Mentre il primo gruppo di algoritmi implementa un'intelligenza artificiale le cui decisioni si basano sull'avveramento, o meno, di determinate condizioni, andando perciò ad eseguire comandi previamente stabiliti ed inseriti normalmente nel programma da uno o più esseri umani, nel caso del machine learning le informazioni necessarie per assumere una decisione non sono fornite dall'uomo, ma vengono estrapolate dalla macchina stessa.

Sta di fatto che, con le dovute precauzioni, l'impiego di tali sistemi nel campo delle amministrazioni pubbliche potrebbe contribuire in modo determinante a garantire una più rapida, efficiente ed efficace gestione della cosa pubblica.

In generale è stato da più parti osservato che, proprio al fine di conciliare le esigenze di efficientamento della PA con la necessità di apprestare ai cittadini le dovute garanzie, la progettazione e l'utilizzo di sistemi di IA nel settore pubblico dovrebbe attenersi a una serie di principi – quali quello di uguaglianza e non discriminazione, trasparenza, proporzionalità, precauzione, autonomia, interoperabilità, accettabilità, affidabilità, sostenibilità ambientale – e protendere a determinati obiettivi, primi tra tutti il primato dell'uomo – e dunque la necessità che tali sistemi funzionino a beneficio dell'essere umano – e il miglioramento della qualità, l'efficacia e l'efficienza dell'azione amministrativa.

In particolare, la Strategia italiana sull'AI – elaborata alla fine del novembre 2021 dai tre ministeri con le maggiori competenze in materia (vale a dire il Ministero dello Sviluppo Economico, il Ministero dell'innovazione tecnologica e della transizione digitale e quello dell'università e della ricerca) al fine di delineare le politiche da implementare nel triennio 2022-2024 per potenziare il sistema IA in Italia – ha proposto le seguenti iniziative per la promozione dell'Intelligenza Artificiale all'interno della PA:

-         Creare interoperabilità e dati aperti per favorire la creazione di modelli di IA, attraverso la garanzia di standard comuni su dati e software e servizi di intelligenza artificiale, nonché protocolli di conformità rispetto alle normative nazionali ed europee, e favorendo lo sviluppo di soluzioni avanzate di analisi e/o software che sfruttino il potenziale dei big data che genera la PA nelle interazioni con i cittadini.

-         Rafforzare l'IA nella PA e nell'ecosistema GovTech[1] in Italia, sviluppando soluzioni che rispondano alle esigenze delineate nelle azioni prioritarie legate alla PA e al settore pubblico (ovvero: 1) digitalizzazione e modernizzazione della pubblica amministrazione; 2) tutela del territorio e delle risorse idriche; 3) manutenzione stradale 4.0; 4) telemedicina, innovazione e digitalizzazione della sanità) e sostenendo lo sviluppo di un ecosistema di start-up GovTech italiano.

-         Creare un dataset comune di lingua italiana per lo sviluppo dell'IA, garantendo che ricercatori, imprese e pubblica amministrazione abbiano accesso a una risorsa linguistica condivisa di alta qualità, aumentando così sia la competitività italiana nel settore che le soluzioni di IA disponibili per i cittadini italiani.

-         Creare banche dati e analisi basate su IA/NLP[2] per feedback/miglioramento dei servizi, migliorando così la qualità delle interazioni (digitali e non solo) dei cittadini con la PA;

-         Creare banche dati per analisi sofisticate su base IA/Computer vision[3] per il miglioramento dei servizi nella PA, supportando in tal modo la PA nell'estrazione di conoscenza da documenti visivi digitalizzati, video e immagini satellitari.

-         Introdurre tecnologie per condivisione e risoluzione di casi trasversali a varie autorità, andando così a migliorare la qualità dei centri di servizio per i cittadini e a semplificare il processo di risoluzione dei problemi, riducendo i tempi di elaborazione dei casi.

[1] Vale a dire i sistemi di utilizzo delle nuove tecnologie applicate ai servizi pubblici.

[2] Per Natural Language Processing (comprensione ed elaborazione del linguaggio naturale) si intendono algoritmi di intelligenza artificiale in grado di analizzare, rappresentare e quindi comprendere il linguaggio naturale. Le finalità possono variare dalla comprensione del contenuto, alla traduzione, fino alla produzione di testo in modo autonomo a partire da dati o documenti forniti in input.

[3] La computer vision è il campo dell'intelligenza artificiale che consente ai computer di interpretare e prendere decisioni basate su dati visivi, come immagini e video. 

Impiego di sistemi di IA in ambito giudiziario

Uno degli aspetti potenzialmente rilevanti dell'applicazione dell'AI al settore della giustizia è costituito dalla c.d. "giustizia predittiva".

Ad oggi manca nell'ordinamento una definizione di giustizia predittiva, tuttavia alcuni elementi al riguardo vengono forniti dal regolamento europeo sull'intelligenza artificialeladdove i sistemi di intelligenza artificiale sono definiti, all'articolo 3, come sistemi che sulla base di dati e input forniti da macchine e/o dall'uomo producono output generati dal sistema quali contenuti (sistemi di AI generativi), previsioni, raccomandazioni o decisioni, che influenzano gli ambienti con cui il sistema di AI interagisce.

Nel caso della giustizia predittiva, i dati e gli input forniti sono costituiti da provvedimenti normativi e da precedenti giurisprudenziali che vengono analizzati dal sistema attraverso algoritmi di apprendimento automatico al fine di generare previsioni fondate su un calcolo di probabilità. Non si tratta quindi di "predire", quanto piuttosto si tratta di sistemi che sono in grado di formulare una previsione sulla base di un modello statistico elaborato dal sistema di AI, attraverso l'analisi di una mole significativa di atti giuridici prodotti nel passato, previsione che può spaziare da ambiti meramente di supporto all'attività giudiziaria fino a riguardare il possibile esito di un giudizio.

Una definizione di algoritmo basato sull'AI è peraltro rinvenibile in una pronuncia (sentenza n. 7891/2021) del Consiglio di Stato, secondo la quale tale algoritmo, a differenza dell'algoritmo tradizionale, "contempla meccanismi di machine learning e crea un sistema che non si limita solo ad applicare le regole software e i parametri preimpostati (…) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico".

Come evidenziato dalla dottrina in materia, appare evidente che un simile sistema presenti possibili aspetti positivi per l'amministrazione della giustizia (come, ad esempio, una tendenziale uniformità nell'applicazione del diritto, maggiore certezza e possibili riflessi anche in termini di efficienza e rapidità), ma anche rischi non trascurabili (è stato ad esempio evidenziato il rischio che l'algoritmo incorpori bias cognitivi, con effetti discriminatori, oppure, il rischio dell'inadeguata motivazione delle soluzioni proposte, o che la ripetizione di decisioni statisticamente più ricorrenti possano costituire un limite all'evoluzione del diritto).

Pertanto, negli ultimi anni vi sono state diverse iniziative finalizzate alla regolamentazione del settore, attraverso la definizione degli ambiti e delle modalità di utilizzo di tale tecnologia.

Già nel 2018, la Commissione europea per l'efficienza della giustizia (CEPEJ) del Consiglio d'Europa aveva individuato, nella Carta etica europea sull'utilizzo dell'intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, i cinque principi cui ogni sistema di AI utilizzato in ambito giudiziario avrebbe dovuto attenersi ovvero:

  • rispetto dei diritti fondamentali: assicurare che l'elaborazione e l'attuazione di strumenti e servizi di intelligenza artificiale siano compatibili con i diritti fondamentali;
  • non discriminazione, adottando misure atte a prevenire qualsiasi discriminazione tra persone o gruppi di persone;
  • qualità e sicurezza: attraverso l'utilizzo di fonti certificate e dati intangibili con modelli elaborati multidisciplinarmente, in un ambiente tecnologico sicuro;
  • trasparenza, imparzialità ed equità, assicurando l'accessibilità e la comprensibilità delle metodologie di trattamento dei dati e consentendo verifiche esterne;
  • "controllo da parte dell'utilizzatore", che deve essere un attore informato e avere il controllo delle proprie scelte.

Tali principi sono stati in parte ripresi nella proposta di regolamento europeo sopra richiamata. Il regolamento si caratterizza per l'approccio basato sulla definizione di diversi livelli di rischio delle applicazioni di AI.

In tale contesto, i sistemi destinati all'amministrazione della giustizia sono riconosciuti come "ad alto rischio", "in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale" (considerando 40).

Il regolamento individua in particolare nei "sistemi di AI destinati ad assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti" quelli da classificare ad alto rischio perché incidono sugli ambiti più sensibili del diritto, nei quali occorre minimizzare i "rischi di potenziali distorsioni, errori e opacità", tenendone invece distinti le "attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l'assegnazione delle risorse", alle quali non si ritiene opportuno estendere la classificazione di rischio elevato.

Particolarmente sensibili sono i profili attinenti all'utilizzo dell'AI nell'ambito del diritto penale. Sul tema è intervenuta una specifica risoluzione del Parlamento europeo (6 ottobre 2021), nella quale si sottolinea che "tutte le soluzioni di AI per le attività di contrasto e il settore giudiziario devono rispettare appieno i principi di dignità umana, non discriminazione, libertà di movimento, presunzione di innocenza e diritto di difesa", si sancisce "il diritto delle parti di un procedimento penale di accedere al processo di raccolta dei dati e a quello relativo alle valutazioni eseguite da o ottenute mediante l'uso delle applicazioni di IA" e si ribadisce che "la decisione che produce effetti giuridici o analoghi deve sempre essere presa da un essere umano, il quale possa essere ritenuto responsabile per le decisioni adottate".

Sul versante italiano, l'attenzione crescente al tema è segnalata anche da recenti iniziative parlamentari miranti ad approfondire e valutare l'impatto che l'intelligenza artificiale può avere nel settore della giustizia. La Commissione Giustizia del Senato ha già deliberato, il 23 novembre scorso, un'indagine conoscitiva in materia e una proposta analoga è stata avanzata presso la Commissione Giustizia della Camera.

Dal punto di vista operativo, sono attualmente attivi in Italia numerosi progetti, nati dalla collaborazione tra autorità giudiziarie e mondo accademico, talvolta con il coinvolgimento di società private.

Un applicativo che impiega tecniche di AI ed è stato sviluppato nell'ambito dell'obiettivo di digitalizzazione della giustizia previsto dal PNRR è quello della Banca dati delle decisioni civili, ideata per la consultazione pubblica dei provvedimenti giudiziali, consentendo una più agevole conoscenza degli orientamenti giurisprudenziali dei singoli Uffici giudiziari.

Significativo è anche l'Accordo in materia di intelligenza artificiale e giustizia predittiva siglato nel 2021 tra il Centro Elettronico di Documentazione (C.E.D.) della Corte di Cassazione e la Scuola Universitaria Superiore IUSS di Pavia, volto a conseguire tre principali obiettivi: la predizione dell'esito dei processi decisionali giudiziari, amministrativi e politici, l'estrazione di argomenti giuridici dal corpus delle sentenze e decisioni di Italgiure, la creazione automatica di massime mediante strumenti di creazione automatica di documenti.

Sempre a livello nazionale, in stato avanzato si trova il progetto Prodigit, finanziato con fondi europei e ritenuto funzionale al raggiungimento degli obiettivi del PNRR, che mira a migliorare l'accesso ai servizi della giustizia tributaria da parte di operatori e cittadini, innovandola attraverso l'uso di tecnologie digitali e intelligenza artificiale.

A livello locale, si segnalano, tra i vari, i progetti:

  • "Giustizia predittiva" della Corte d'appello di Venezia con l'Università Ca' Foscari e la società Deloitte, volto alla realizzazione di un dispositivo di AI in grado di fornire una previsione probabilistica dell'esito di un processo in materia di licenziamento per giusta causa e giustificato motivo soggettivo, in virtù di un data-base che raccoglie un triennio di giurisprudenza del Distretto;
  • "prevedibilità delle decisioni", della Corte di Appello di Bari con la locale Università, che coinvolge magistrati di diversi ambiti giudiziari (civile, fallimentare, minorile, lavoro);
  • "Giustizia Semplice 4.0" del Tribunale di Firenze,  in collaborazione con l'Università di Firenze, la CRFirenze e la Camera di Commercio, che punta a costruire un algoritmo predittivo sulla mediazione, nelle materie contrattuali e di competenza del tribunale delle imprese;
  • "Predictive justice", piattaforma sviluppata dall'Università S. Anna di Pisa in collaborazione con i Tribunali di Genova e Pisa, con lo scopo di sviluppare una metodologia di analisi del materiale giurisprudenziale, rendendone più accessibile la conoscenza non solo ai professionisti del diritto ma anche ai cittadini, e, in ultima analisi, di ridurre il contenzioso;
  • "IustitIA", della Corte di Appello di Reggio Calabria con l'Università Mediterranea e l'Università per stranieri di Reggio Calabria, che ha come principali obiettivi la riduzione del contenzioso e dei tempi di definizione dei procedimenti e si esplica nell'analisi e nella predisposizione automatica di atti e documenti nonché in attività di analisi predittiva (c.d. giustizia predittiva), nel rispetto di quanto previsto dalla Carta Etica Europea sull'applicazione dell'AI alla giustizia;
  • "Giustizia predittiva" della Corte e del Tribunale di Brescia con la locale Università, vertente sulle tematiche del diritto del diritto del lavoro e delle imprese;
  • "Giustizia predittiva" del Tribunale di Milano con l'Università degli studi di Milano, progettato secondo un'impostazione statistico-giurisprudenziale, allo scopo di prevedere le future decisioni delle singole corti in base allo studio dei precedenti.

L'IA nell'analisi del rischio fiscale

In Italia, in materia fiscale, l'intelligenza artificiale sta trovando una sua specifica applicazione nelle attività relative alle verifiche fiscali, in particolare favorendo l'elaborazione e il trattamento di big data negli ambiti dell'analisi del rischio e del contrasto alle frodi, con riguardo all'individuazione di criteri di rischio, deterministici e probabilistici da utilizzare per la predisposizione di liste selettive di controllo e di elenchi destinati all'alimentazione del processo di stimolo della compliance.

Nel proprio Documento illustrativo della logica degli algoritmi, l'Agenzia delle entrate sottolinea l'importanza dell'utilizzo dell'IA in un'analisi probabilistica basata sull'insieme dei modelli e delle tecniche di analisi che, sfruttando soluzioni di intelligenza artificiale ovvero di statistica inferenziale, consentano di isolare rischi fiscali, anche non noti a priori, che, una volta individuati, possano essere utilizzati per l'elaborazione di autonomi criteri selettivi, ovvero permettano di attribuire una determinata probabilità di accadimento ad un rischio fiscale noto (definizione ripresa anche all'articolo 2, comma 1, lettera f) dello schema di decreto legislativo in materia di procedimento accertativo A.G.105). 

A tale proposito, il comma 682 della legge di bilancio 2020 (legge 27 dicembre 2019, n. 160) ha disposto che l'Agenzia delle entrate, per le summenzionate analisi del rischio, possa avvalersi, anche previa pseudonimizzazione dei dati personali, delle tecnologie, delle elaborazioni e delle interconnessioni con le altre banche dati di cui dispone, allo scopo di individuare i criteri di rischio utili a far emergere le posizioni da sottoporre a controllo o nei cui confronti avviare attività di stimolo dell'adempimento spontaneo.

In tale ottica, l'Agenzia delle entrate, al fine di valorizzare al meglio il vasto patrimonio di dati di cui dispone (per ogni singola annualità, 42 milioni di dichiarazioni, 750 milioni di informazioni comunicate da soggetti terzi, 400 milioni di rapporti finanziari attivi, 197 milioni di versamenti F24, circa 2 miliardi di fatture elettroniche e oltre 150 milioni di immobili censiti) ha ottenuto anche il finanziamento dell'Unione europea del progetto A data driven approach to tax evasion risk analysis in Italy ideato e presentato dall'Agenzia stessa con la finalità di innovare i processi di valutazione del rischio di non-compliance. In pratica, con tale progetto si cerca di attuare nuovi approcci e strumenti di analisi del rischio basati sui dati per individuare la frode e l'evasione fiscale. Attraverso soluzioni tecnologiche all'avanguardia come l'intelligenza artificiale e le tecniche di apprendimento automatico machine learning, l'Agenzia mira pertanto a rafforzare la conformità volontaria, ridurre l'economia sommersa e migliorare la sostenibilità delle finanze pubbliche.

Nel corso dell'audizione in merito ai Progetti di digitalizzazione e innovazione tecnologica del settore fiscale, svoltasi presso la VI Commissione Finanze e tesoro del Senato, il direttore dell'Agenzia delle entrate rappresentava che l'Agenzia è impegnata a realizzare una complessiva strategia di sviluppo di tecniche di analisi sui cosiddetti big data, finalizzata a superare i tradizionali controlli basati sugli incroci volta a promuovere approcci innovativi e diversificati. Inoltre, considerata la valenza strategica che, per l'Agenzia delle entrate, rivestono l'innovazione tecnologica e l'ampliamento delle attuali conoscenze nell'ambito della disciplina dell'analisi dei dati, gli investimenti in questo campo favorirebbero un significativo incremento di efficienza ed efficacia dei processi di contrasto all'evasione e della promozione della tax compliance, oltre che una riduzione della spesa pubblica e una migliore offerta di servizi digitali ai cittadini. Gli investimenti in infrastrutture tecnologiche e in know-how per un migliore utilizzo del patrimonio informativo dell'Amministrazione finanziaria potrebbero concentrarsi sulle seguenti due linee di intervento generali:

  • investimenti infrastrutturali, finalizzati a rendere ancora più fruibile e tempestivo l'accesso e la gestione dei flussi delle informazioni di vaste basi di dati (ad esempio archivio dei rapporti finanziari, fatturazione elettronica e corrispettivi), per l'applicazione di tecniche di intelligenza artificiale, machine learning, text mining, ecc.; potenziamento delle dotazioni tecnologiche a disposizione delle strutture centrali e territoriali preposte all'attività di prevenzione e contrasto all'evasione, con ricadute positive sulla celerità nello scambio di informazioni tra strutture centrali, nonché sull'incremento delle capacità di analisi anche a livello locale;
  • investimenti in software e in know how, nel campo delle nuove tecnologie di analisi di vaste basi di dati, con particolare riferimento allo sviluppo della network analysis, con conseguente aggiornamento dell'hardware a disposizione degli analisti.

Tale approccio è stato definito nella Convenzione triennale per gli esercizi 2023-2025 tra MEF e le Agenzie fiscali dove si prevede che l'Agenzia monitorerà il comportamento dei contribuenti che hanno subito un controllo fiscale per verificare nel tempo il loro grado di propensione all'adempimento e, più in generale, per valutare il livello di fedeltà fiscale; si dovrà, inoltre, incrementare la capacità operativa nell'ottica di favorire il miglioramento della qualità dei controlli, attraverso nuovi strumenti e progetti di analisi avanzata dei dati, l'applicazione di tecniche come l'intelligenza artificiale, il machine learning e il text mining.

La legge di delega per la riforma fiscale, n. 111 del 2023, ha espressamente previsto nell'articolo 17, comma 1, lettere c) ed f), l'obiettivo di prevenire, contrastare e ridurre l'evasione e l'elusione fiscale razionalizzando le disposizioni  normative concernenti le attività di analisi del rischio nonché potenziando l'utilizzo di tecnologie digitali, anche con l'impiego di sistemi di intelligenza artificiale, al fine di ottenere, attraverso la piena interoperabilità tra le banche di dati, la disponibilità delle informazioni rilevanti. Tale previsione è stata recepita al comma 2 dell'articolo 1 dello schema di decreto legislativo in materia di procedimento accertativo (A.G.105) dove sono indicate alcune definizioni finalizzate a perimetrare in maniera esaustiva il processo di analisi del rischio, chiarendo, in maniera esplicita, che lo stesso può basarsi anche sull'utilizzo di soluzioni di machine learning e intelligenza artificiale.

Il Governo osserva nella relazione illustrativa che tale possibilità, invero, pur essendo già prevista dal Regolamento privacy - in particolare nelle parti in cui si discorre di profilazione - non risultava ancora espressamente contemplata da una norma definitoria nazionale. Il Governo precisa inoltre che nel testo non vengano analiticamente descritte le varie soluzioni di intelligenza artificiale utilizzabili, poiché le stesse saranno perimetrate da un Regolamento unionale di prossima emanazione.

Sempre nella relazione illustrativa  del sopra citato schema di decreto legislativo, si evidenzia, altresì, che il potenziamento dell'attività di analisi del rischio è stato ampiamente valorizzato anche nell'ambito del Piano Nazionale di Ripresa e Resilienza (PNRR), che, a completamento delle azioni, prevede diverse riforme, intese quali misure destinate a concorrere alla realizzazione degli obiettivi, già indicati nelle Country Specific Recommendations rivolte all'Italia dall'Unione Europea, di equità sociale e miglioramento della competitività del sistema produttivo.

Tra queste, quella denominata Riduzione del tax gap, prevede esplicitamente che «L'obiettivo del potenziamento dei controlli sarà realizzato attraverso selezioni più mirate dei contribuenti a maggiore rischio di evasione, rese possibili dall'applicazione di strumenti di data analysis più avanzati e dall'interoperabilità delle banche dati». Tra gli strumenti di data analysis vengono citate le «tecniche sempre più avanzate come intelligenza artificiale, machine learning, text mining, analisi delle relazioni». 

In concreto, per il perseguimento degli obiettivi sopra descritti, l'Agenzia delle entrate, con la direttiva 74424 del 2023, recante modifiche all'organizzazione e alle attribuzioni della Divisione contribuenti e della Direzione Centrale Piccole e Medie Imprese, ha istituito al suo interno l'Ufficio data science con i compiti di:

  • realizzazione di processi informatici complessi di elaborazione e trattamento di big data negli ambiti dell'analisi del rischio e del contrasto alle frodi, finalizzati all'individuazione di criteri di rischio, deterministici e probabilistici, da utilizzare per la predisposizione di liste selettive di controllo e di elenchi destinati all'alimentazione del processo di stimolo della compliance;
  • supporto tecnico-informatico alle strutture centrali e regionali nelle attività di estrazione, modellizzazione ed elaborazione dei dati, anche per l'utilizzo delle piattaforme di analisi avanzata dei dati;
  • sviluppo di metodologie di supporto alle attività di controllo preventivo, anche avvalendosi di tecniche di machine learning e intelligenza artificiale;
  • realizzazione di indicatori di rischio basati su tecniche di machine learning, intelligenza artificiale, analisi di rete e text mining e loro implementazione negli applicativi di analisi;
  • individuazione di soluzioni informatiche e metodologiche innovative per il trattamento dei dati provenienti dalla cooperazione internazionale;
  • implementazione di tecniche di text mining finalizzate a consentire l'utilizzo dei "dati fattura integrati" nell'ambito dell'analisi del rischio.

L'utilizzo dell'intelligenza artificiale nell'analisi del rischio fiscale in altri Paesi

Nel 2020 in Francia, con la loi de finances pour 2020, n. 2019-1479 del 28 dicembre 2019, le amministrazioni finanziarie sono state autorizzate a raccogliere ed elaborare, in via automatizzata, anche le informazioni pubblicate dagli utenti sui propri social network, riconoscendo così alle amministrazioni fiscali e doganali la possibilità di utilizzare i dati resi pubblici sui social network per indagini sul rischio di violazioni fiscali e doganali. In pratica, le informazioni diffuse pubblicamente dagli utenti stessi (con l'esclusione delle conversazioni private e in generale di tutto ciò che è accessibile dopo aver inserito una password) confluiranno in una banca dati dove saranno raccolte in modo aggregato e automatizzato, per essere poi utilizzate nella stesura delle analisi di rischio (per una più ampia lettura della misura si rinvia all'articolo dell'Agenzia delle entrate: Francia, dai social media nuovi strumenti anti evasione).

La tendenza al sempre maggiore utilizzo della IA nel contrasto all'evasione è tuttavia assai diffusa a livello internazionale.

L'Agenzia delle entrate, nella sua rivista on line, segnala come negli Stati Uniti l'Internal Revenue Service (l'Agenzia federale delle entrate statunitense) ha previsto l'utilizzo a regime dell'intelligenza artificiale per investigare sull'evasione fiscale delle società multimiliardarie, cosiddette partnership, sui contribuenti facoltosi e sui gruppi di investitori nei settori immobiliare e in quello dei fondi d'investimento.  

A tal fine l'IRS (l'agenzia governativa deputata alla riscossione dei tributi all'interno del sistema tributario degli Stati Uniti) sta già utilizzando una parte degli 80 miliardi di dollari stanziatisu base decennale, con l'Inflation Reduction Act del 2022 per affrontare meccanismi di elusione fiscale divenuti troppo complessi da gestire con le ridotte risorse nella disponibilità dell'Irs. I nuovi fondi nella disponibilità dell'Irs hanno permesso la costruzione d'una nuova infrastruttura con al centro proprio l'intelligenza artificiale.

Gli sforzi si concentreranno sulle grandi partnership complesse, che di fatto gestiscono e indirizzano miliardi d'investimenti in fondi obbligazionari e/o puramente azionari in ogni angolo del pianeta, e sui contribuenti ad alto reddito che spesso proprio su tali strumenti investono i loro patrimoni percependo in cambio ricchi dividendi e lucrose plusvalenze. In sostanza, l'Irs avvierà accertamenti sulle più grandi partnership statunitensi, tutte identificate con l'aiuto dell'intelligenza artificiale.

Si ricorda, altresì, il caso brasiliano dove viene utilizzato un sistema di intelligenza artificiale (basata sull'apprendimento automatico (machine learning) chiamato the Customs Selection System Through Machine Learning-SISAM, in grado di calcolare la probabilità di irregolarità fiscali e, conseguentemente, di valutare l'opportunità di un controllo doganale. Più in particolare, si tratta di un'intelligenza artificiale che, dal 2014, analizza ogni dichiarazione di importazione registrata in Brasile e per ogni articolo in ciascuna dichiarazione di importazione calcola la probabilità di circa 30 tipi di errori aiutando così a ridurre la percentuale di merci verificate durante lo sdoganamento, l'evasione fiscale e l'inosservanza dei requisiti amministrativi  (per un approfondimento del sistema SISAM si rinvia alla lettura del documento: Artificial Intelligence Initiatives in the Special Secretariat of Federal Revenue of Brazil, per un approfondimento generale dell'utilizzo dell'apprendimento automatico nell'analisi frodi nel settore doganale  si rinvia al documento della Commissione economica per l'Europa delle Nazioni Unite: Machine Learning Approaches for Fraud Analytics in Customs).

L'IA nella valutazione del merito di credito

L'utilizzo dell'intelligenza artificiale, nel settore bancario, presenta profili di particolare delicatezza con riferimento alla valutazione del merito di credito dei soggetti che formulano richieste di accesso al credito bancario.

In linea generale, l'attività di valutazione del merito di credito - credit scoring - in sé non è sinora stata oggetto di regolamentazione, se non in modo incidentale, dal momento che consiste nell'adozione di modelli di valutazione utili all'impresa finanziatrice per le valutazioni relative alla decisione di erogare o negare credito alla clientela.

Come evidenziato da recenti studi (v. Banca d'Italia, Questioni di economia e finanza n. N. 721 - Intelligenza artificiale nel credit scoring: analisi di alcune esperienze nel sistema finanziario italiano), nella valutazione del rischio di credito e di merito di credito gli istituti bancari ricorrono sempre più spesso a sistemi di intelligenza artificiale, stante la capacità del machine learning di processare ingenti quantità di dati, individualizzare l'analisi e velocizzare i processi.

In ambito nazionale, una prima forma di regolazione dell'attività di credit scoring è stata introdotta con il recepimento della normativa europea sul credito al consumo (anche immobiliare) e con la disciplina del sovraindebitamento (legge n. 3 del 2012). Alcune recenti pronunce giurisprudenziali hanno rammentato che il finanziatore è tenuto all'obbligo di rispettare i principi di sana e prudente gestione verificando, in particolare, il merito creditizio del cliente in forza di informazioni adeguate, come previsto dall'art. 124- bis TUB (Cass., 30 giugno 2021, n. 18610), di fatto legando la sana e prudente gestione dell'ente al corretto operato dell'intermediario nella valutazione del merito creditizio. La richiamata giurisprudenza ha quindi puntualizzato che l'attività di concessione del credito da parte degli istituti bancari "non costituisce mero "affare privato", ma si riflette anche direttamente sui rapporti con la clientela. Alcuni riferimenti alle modalità di effettuazione del credit scoring sono contenuti nel diritto bancario, con particolare riferimento alla normativa europea in tema vigilanza prudenziale (Direttiva 2013/36/UE sull'accesso all'attività degli enti creditizi e sulla vigilanza prudenziale sugli enti creditizi e sulle imprese di investimento – cosiddetta direttiva CRD IV e regolamento (UE) n. 575/2013 - CRR), nonché nelle linee guida dell'Autorità di vigilanza europea in materia bancaria - EBA sulla gestione e il monitoraggio del credito e dalle linee Guida Fintech Bank di BCE.

Per quanto riguarda i criteri di erogazione, la disciplina unionale prevede che gli intermediari, durante la fase istruttoria, raccolgano tutte le informazioni necessarie per valutare il merito di credito mediante l'utilizzo di sistemi di scoring o rating.

Tra le prescrizioni più significative, che hanno riflessi sull'uso di modelli di machine learning per l'attività di credit scoring, si segnala che la normativa europea prescrive che l'intermediario disponga di un processo per vagliare i dati immessi nel modello di previsione che contempli una valutazione dell'accuratezza, completezza e pertinenza dei dati" (articolo 174 CRR). Inoltre l'intermediario deve combinare il modello statistico con la valutazione e la revisione umana, in modo da verificare le assegnazioni effettuate in base al modello e da assicurare che i modelli siano utilizzati in modo appropriato, allo scopo di limitare gli errori. Inoltre la documentazione dei sistemi di rating (art. 175 CRR) deve in ogni caso assicurare una descrizione dettagliata della teoria, delle ipotesi e delle basi matematiche ed empiriche su cui si fonda l'assegnazione delle stime a classi, singoli debitori, esposizioni o aggregati, nonché le fonti dei dati, una o più, utilizzate per costruire il modello. 

Uno dei profili problematici relativi all'uso dell'intelligenza artificiale nella valutazione del merito di credito afferisce alla non discriminazione e dell'inclusione finanziaria. L'articolo 120-undecies del Testo Unico Bancario, al comma 1, dispone che la valutazione del merito creditizio è effettuata sulla base delle informazioni sulla situazione economica e finanziaria del consumatore che siano necessarie, sufficienti e proporzionate e opportunamente verificate. Il comma 5 stabilisce inoltre che, se la domanda di credito è respinta, il finanziatore è tenuto a informare il consumatore senza indugio del rifiuto e, ove previsto, del fatto che la decisione è basata sul trattamento automatico di dati.

Al riguardo giova rammentare che profili relativi al credit scoring effettuato con modalità automatizzate sono presenti nella normativa unionale in materia di privacy (Regolamento GDPR, regolamento UE n. 2016/679). L'articolo 9 sancisce il generale divieto di trattare i dati sensibili per scopi decisionali automatizzati, a meno che non vi sia un consenso esplicito dell'interessato al trattamento per una o più finalità specifiche o motivo di interesse pubblico. Se da un lato è previsto il divieto di sottoporre un individuo a processi decisionali automatizzati, l'articolo 22, al paragrafo 2, stabilisce che, oltre al caso di un esplicito consenso al trattamento, il trattamento automatizzato è possibile se necessario per la conclusione o l'esecuzione di un contratto tra l'interessato e il titolare. L'articolo 15 sancisce il diritto alle informazioni circa l'esistenza di un processo decisionale automatizzato, compresa la profilazione.

La bozza di regolamento UE in materia di intelligenza artificiale si occupa specificamente della questione relativa all'applicazione di sistemi di AI per la valutazione del merito di credito. In particolare, tale utilizzo viene considerato "ad alto rischio" e dunque sottoposto alla previsione di una serie di presidi e verifiche.

Nei considerando emerge in particolare che tale classificazione è dovuta alla circostanza che tali valutazioni determinano l'accesso alle risorse finanziarie o ai servizi essenziali come alloggi, elettricità e servizi di telecomunicazione. I sistemi di intelligenza artificiale utilizzati a tale scopo possono portare alla discriminazione di persone o gruppi e perpetuare modelli storici di discriminazione, ad esempio basati su origini razziali o etniche, genere, disabilità, età, orientamento sessuale, o creare nuove forme di impatti discriminatori. Dall'altro lato, la bozza di regolamento prevede che non siano considerati "ad alto rischio" i sistemi di IA previsti dal diritto dell'Unione allo scopo di individuare frodi nell'offerta di servizi finanziari e a fini prudenziali per calcolare i requisiti patrimoniali degli enti creditizi e delle imprese di assicurazione.

L'uso dell'IA nell'ambito militare e della difesa

L'IA è una tecnologia abilitante che permette l'acquisizione rapida di informazioni, decisioni veloci ed efficienti, il miglioramento dell'efficienza operativa, che fornisce soluzioni per potenziare la difesa in ambito cyber e che può essere impiegata per fornire a diversi tipi di sistemi una sempre maggiore autonomia.

I sistemi di IA possiedono pertanto un enorme potenziale per il miglioramento della sicurezza e della difesa europee. L'Agenzia Europea per la Difesa (AED) ha identificato otto Tecnologie Emergenti a cui attribuisce un'importanza strategica: prima fra tutte l'IA, seguita da tecnologie quantistiche, robotica, sistemi autonomi, analisi dei big data, sistemi d'arma ipersonici, tecnologie spaziali, e nuovi materiali avanzati. Inoltre, a livello europeo, hanno preso avvio diversi progetti con oggetto lo sviluppo di sistemi di IA militare applicati ad ambiti come cooperazione e coordinamento, miglioramento della consapevolezza situazionale sul campo di battaglia, addestramento e simulazione, manutenzione predittiva, sistemi autonomi (armi e veicoli), tecnologie di sciame, e miglioramento delle capacità di difesa cyber. D'altro canto, l'IA attuale si basa sull'analisi statistica e manca delle capacità necessarie per affrontare contesti complessi e imprevedibili. Gli attuali progressi nel campo dell'apprendimento automatico e dell'apprendimento profondo rientrano nel novero dell'IA "ristretta", sistemi in grado di svolgere a velocità ed efficienza sovrumane compiti complessi ma estremamente specifici e delimitati. L'IA non è ad oggi in grado superare le capacità cognitive dell'uomo, e richiede pertanto la supervisione umana (Fonte: Geopolitica.info, Autonomia strategica europea e tecnologie emergenti: impatti e prospettive dell'intelligenza artificiale).

In quest'ottica, il Parlamento europeo già nel 2021 ha approvato una risoluzione in cui, nel richiedere un quadro giuridico comunitario sull'IA con definizioni e principi etici, che coprano anche il suo impiego in campo militare, sottolinea che i sistemi abilitati all'IA devono permettere agli esseri umani di esercitare un controllo significativo, in modo da esserne i responsabili dell'utilizzo. L'uso di sistemi d'arma autonomi e letali (LAWS, Lethal Autonomous Weapon System), in particolare, solleva questioni etiche e legali fondamentali. I deputati del Parlamento europeo vedono come essenziale una strategia UE che li proibisca e la messa al bando dei cosiddetti "robot assassini". La decisione di selezionare un bersaglio e di compiere un'azione letale utilizzando un sistema d'arma autonomo deve sempre essere presa da un essere umano con adeguato livello di controllo e giudizio, in linea con i principi di proporzionalità e necessità. Inoltre, l'Unione deve inoltre assumere un ruolo guida nella creazione e nella promozione di un quadro globale che regoli l'uso militare dell'IA, a fianco dell'ONU e della comunità internazionale.

Il regolamento europeo sull'IA (cd. "AI Act") prevede l'esclusione delle finalità militari, di difesa e di sicurezza nazionale dall'ambito di applicazione della normativa sull'IA (Art. 2, par. 3). Tuttavia, gli standard e le normative stabilite dall'AI Act possono influenzare indirettamente come gli stati membri dell'UE e le aziende che operano in Europa sviluppano e implementano sistemi AI per applicazioni militari. Questo potrebbe includere aspetti come la trasparenza, la supervisione umana e la sicurezza dei sistemi. Inoltre, è possibile che l'AI Act possa servire da modello per future regolamentazioni (o standard) specifiche per il settore militare, sia a livello dell'UE che a livello globale. La crescente integrazione dell'intelligenza artificiale nella difesa richiede un quadro normativo che bilanci l'innovazione con la responsabilità etica e la sicurezza. La collaborazione tra paesi, istituzioni e industrie sarà fondamentale per garantire che l'uso militare dell'IA si sviluppi in modo responsabile e conforme ai principi internazionali di diritto umanitario (Fonte: Difesaonline.it).

L'applicazione dell'IA in ambito parlamentare: l'indagine conoscitiva svolta dal Comitato di vigilanza sull'attività di documentazione della Camera dei deputati

Il Comitato di vigilanza sull'attività di documentazione della Camera dei deputati ha condotto tra il mese di aprile 2023 e di gennaio 2024 un'indagine conoscitiva sull'intelligenza artificiale e sul suo possibile impiego a supporto del lavoro parlamentare. L'indagine conoscitiva – che fa seguito ad un'analoga attività condotta nel corso della XVIII Legislatura – è stata effettuata attraverso l'audizione di esperti e una missione negli USA per incontrare rappresentanti dei principali operatori di mercato dell'IA e rappresentanti del mondo accademico.

Per svolgere le proprie funzioni costituzionali di indirizzo e controllo e legislative il Parlamento acquisisce ogni giorno un'enorme quantità di dati che provengono sia dall'interno della rappresentanza parlamentare stessa (singoli parlamentari, gruppi politici etc.) sia dall'esterno (ad es., istituzioni con le quali il Parlamento naturalmente interloquisce, in primo luogo il Governo); a sua volta il Parlamento produce un'ingentissima mole di nuovi dati che vengono posti a disposizione dell'intera comunità politica. Sulla base della nostra Costituzione, il lavoro parlamentare è sottoposto al regime di pubblicità: tale prescrizione è stata attuata, nella nuova sfera digitale, attraverso la realizzazione dei ricchissimi siti internet delle Camere e con l'adozione di un sistema di linked open data che pone a disposizione di chiunque un'enorme massa di dati sull'attività parlamentare. Per la produzione e l'elaborazione di tale flusso informativo, il Parlamento utilizza già da tempo applicazioni di intelligenza artificiale. Si tratta di funzioni i cui output hanno già raggiunto un ottimo livello qualitativo, anche se il rilascio finale dei prodotti ottenuti attraverso questi sistemi è comunque sottoposto ad una verifica umana di qualità e appropriatezza. Ora, l'introduzione di applicazioni di IA generativa potrebbe comportare una fase di innovazione molto più estesa (investendo contemporaneamente un numero molto più ampio di funzioni parlamentari); essa appare destinata ad incidere in modo sostanziale, sia sulle modalità attraverso cui il Parlamento produce, elabora e consuma informazioni, sia sul rapporto fra rappresentanza parlamentare e sfera pubblica. Su questi versanti, strettamente interconnessi, è lecito attendersi dalle applicazioni di IA generativa non solo notevoli incrementi di efficienza per le attività già attualmente in essere, ma l'introduzione di modalità del tutto nuove per lo svolgimento della funzione di rappresentanza politica affidata alle Camere. Proprio in virtù del potenziale "trasformativo" di tale fase innovativa, appare indispensabile che essa non sia "subita" dal Parlamento, ma al contrario promossa e guidata sulla base di criteri trasparenti, condivisi e adottati sulla base di un adeguato processo di consultazione e approfondimento.

Nell'ambito dell'indagine è emersa la necessità di una regolamentazione, a livello nazionale e sovranazionale, tempestiva e tecnologicamente neutrale, capace di normare efficacemente gli usi dell'IA nei vari settori della società. Questo permetterà ad istituzioni, cittadini e imprese di sfruttare appieno i benefici di questi nuovi strumenti. In questo contesto, la Camera dei deputati può assumere un ruolo guida, sia per l'attenzione dedicata a questi temi sia per la definizione di un processo pienamente consapevole e ponderato di integrazione delle nuove soluzioni di intelligenza artificiale a supporto del lavoro parlamentare, ai diversi livelli, in un percorso volto a migliorare l'efficacia dell'attività legislativa e la conoscibilità dell'attività svolta dall'Istituzione, a beneficio dei cittadini che vogliano attingere informazioni in modo sempre più completo ed accessibile.

A tal proposito, il documento conclusivo dell'indagine - alla cui lettura si rinvia - ipotizza un percorso che gradualmente, dopo un'adeguata sperimentazione e valutazione dei risultati ottenuti, integri gli strumenti di intelligenza artificiale di nuova generazione – essi stessi oggetto di un'evoluzione rapidissima – nei processi di lavoro parlamentare a supporto dell'attività dei diversi soggetti, per potenziarne l'efficacia. La prima tappa può essere individuata nell'integrazione degli strumenti di IA nei processi di lavoro interni di predisposizione della documentazione parlamentare per l'istruttoria legislativa e per la verifica delle politiche pubbliche. Il secondo passaggio è quello di un impiego di tali strumenti a supporto del lavoro dei singoli parlamentari, consentendo loro di esercitare più efficacemente le proprie attività, ad esempio, mediante sistemi da utilizzare nell'ambito della predisposizione di un'iniziativa legislativa o di uno strumento di indirizzo o di controllo sul Governo. L' ultima tappa o scenario consiste nella definizione di uno strumento a disposizione del pubblico attraverso il quale i cittadini attingendo alle risorse parlamentari possano ricercare e approfondire – semplicemente e con linguaggio naturale – i temi di loro maggiore interesse e l'attività dei singoli parlamentari su specifici temi in modo più rapido ed intuitivo. Anche nel contesto parlamentare, l'utilizzo di sistemi di IA di nuova generazione può rappresentare dunque uno strumento per migliorare la produttività e l'efficacia delle attività nel loro complesso e può consentire di accrescere il livello di accountability e trasparenza nei confronti dei cittadini e dell'opinione pubblica. 

In parallelo alla presentazione del documento conclusivo, la Camera dei deputati ha promosso un avviso di manifestazione d'interesse, rivolto a giovani studiosi, ricercatori, centri di competenze universitari, enti di ricerca, al fine di raccogliere progetti di utilizzo dell'Intelligenza artificiale generativa finalizzati a reperire e organizzare informazioni qualificate, supportare la predisposizione degli atti di iniziativa, far conoscere la documentazione e l'attività parlamentare in modo più completo e inclusivo.  

Profili comparatistici: strategie e interventi regolatori nei principali ordinamenti

Stati Uniti

In data 30 ottobre 2023, il Presidente degli Stati Uniti ha emanato un Executive Order (il n. 14110) sulla Safe, Secure, and Trustworthy Artificial Intelligence (decreto per un'intelligenza artificiale sicura e affidabile).

L'Excutive order è provvedimento normativo che ha un effetto vincolante sulle amministrazioni pubbliche ma per i terzi ha efficacia più limitata, tanto – come peraltro è specificato in coda al testo – non attribuisce diritti o pretese ad alcuno; nel nostro ordinamento ha i tratti, in parte, del decreto-legge e, in parte, del d.P.C.M.

L'Executive order 14110 si presenta lungo e articolato: è un testo che si pone come primo e organico atto di regolazione del fenomeno dell'intelligenza artificiale (d'ora innanzi anche IA) negli Stati Uniti. Esso ha però anche il dichiarato scopo di collocare gli USA nel ruolo guida sul piano internazionale nel governo della materia.

Esso proclama anzitutto le sue finalità; indi contiene una nutrita serie di definizioni; e poi sviluppa una corposa serie indirizzi e istruzioni alle strutture ministeriali incaricate di portare avanti compiti coerenti con le finalità dichiarate, assegnando loro anche una griglia di scadenze temporali entro cui adottare i conseguenti atti. Da questo punto di vista, l'Executive order 14110 si atteggia, quindi, a cronoprogramma per la creazione di un ambiente normativo e amministrativo entro cui il progresso dell'intelligenza artificiale sia ben stimolato ma anche regolato.

Tutto il testo dell'Executive order è infatti ispirato dalla consapevolezza che l'intelligenza artificiale è un movimento in costante evoluzione, che offre enormi opportunità di benessere individuale e collettivo ma che comporta anche rischi e pericoli.

Le 8 finalità. Anzitutto, il provvedimento del Presidente Biden dichiara le finalità che il sistema istituzionale statunitense nel suo complesso – e salvo comunque l'auspicio che il Congresso intervenga tempestivamente a dare maggiore compiutezza e forza normativa alla regolazione – deve conseguire. Esse sono:

a)    la sicurezza. Nell'originale inglese è usata l'endiadi "safe and secure", vale a dire la sicurezza intesa sia come intrinseca inidoneità a nuocere, sia come protezione da usi malevoli e dannosi da parte di una persona contro un'altra. L'obiettivo della sicurezza è raggiungibile attraverso un fitto reticolo di iniziative e azioni pubbliche e private che di fatto erigano un sistema di controlli robusti, affidabili, reiterati e con standard omogenei;

b)    l'innovazione responsabile. L'Amministrazione federale americana si propone di predisporre un ambiente socio-economico e normativo in cui vi sia apertura di mercato, concorrenza, formazione e addestramento sul piano tecnologico e promozione della ricerca;

c)     la promozione e la protezione del lavoro negli Stati Uniti. L'Amministrazione federale si propone di far partecipare i lavoratori americani (e con essi i sindacati, gli insegnanti e i datori) ai processi di sviluppo e di governo dell'intelligenza artificiale. Essa avverte l'esigenza di proteggere responsabilmente i lavoratori da un peggioramento delle condizioni sul posto di lavoro ed economiche.

Da questo punto di vista, appare chiara l'eco dello sciopero dei lavoratori dello spettacolo in California, prolungatosi per circa 4 mesi nel 2023, alla base del quale erano anche rivendicazioni inerenti ai pericoli posti dall'IA per le attività a contenuto creativo, imitativo e riproduttivo nell'industria cinematografica;

d)    la tutela dell'uguaglianza e dei diritti umani. Il provvedimento premette che l'uso non regolato dell'IA ha già mostrato di poter approfondire le diseguaglianze e le discriminazioni. Viceversa, ci si propone di emanare uno statuto dell'IA (AI Bill of Rights) che affianchi altre politiche pubbliche volte alla rimozione delle cause della sperequazione economica, sociale e razziale;

e)     la protezione dell'uso quotidiano dell'IA.  Preso atto che vi sono settori nei quali l'impiego dell'IA è già avanzato (sanità, servizi finanziari, istruzione, politiche per la casa, trasporti e amministrazione della giustizia), l'Executive order si prefigge l'obiettivo di proteggere utenti, pazienti e consumatori che giornalmente vengono a contatto con meccanismi produttivi e commerciali gestiti (anche) dall'IA;

f)      la protezione dei dati personali. Le potenzialità dell'IA sono enormi sotto il profilo dell'estrazione, dell'elaborazione e del collegamento dei dati (disponibili in rete o nelle banche-dati). Si tratta spesso di dati sensibili, che delle persone rivelano identità, ubicazione, abitudini e desideri. Ne deriva il rischio di impropri sfruttamento ed esposizione pubblica dei dati (compresi quelli attinenti alle opinioni politiche), per combattere i quali il governo federale si propone di adoperare tutti gli strumenti di legge per difendere la privacy individuale;

g)    il reclutamento nelle agenzie federali di personale qualificato. Il perseguimento delle finalità sinora esposte ne implica un'ulteriore, relativa a chi possa farsi carico delle azioni che materialmente siano tese a conseguirle. Il governo federale degli Usa pertanto si propone una campagna di assunzioni di figure professionali attrezzate a comprendere i rischi dell'IA e a orientarne l'uso per risultati positivi per il popolo americano;

h)    l'assunzione di un ruolo guida nel mondo. L'Amministrazione Biden si propone – con l'emanazione e l'attuazione dell'Executive order n. 14110 – di rendere gli USA come l'attore che, sulla scena mondiale, si pone come apri-pista e punto di riferimento nel governo dell'IA. Sotto questo aspetto, essa si prefigge di cooperare con i Paesi alleati nell'elaborazione di una strategia condivisa e globale volta ad assicurare che i rischi dell'IA siano minimizzati e che invece siano sviluppati e diffusi gli usi tesi al miglioramento della qualità della vita.

Con riguardo alle definizioni, l'Executive order detta poi, in via preliminare, 33 definizioni normative, alcune nuove, altre già presenti nella legislazione statunitense, cui rinvia.

La definizione di intelligenza artificiale (AI) è ripresa dallo United States Code (15 USC 9401(3): un sistema basato su macchine (id est: automatico) che può – per una serie prestabilita di scopi dettati dall'uomo – fare previsioni, dare consigli e assumere decisioni che influenzano l'ambiente reale o virtuale circostante. I sistemi di IA adoperano stimoli umani o automatizzati per calarsi in un ambiente reale o virtuale, ne sintetizzano le caratteristiche in modelli astratti in base ai quali poi formulano interazioni informative con l'esterno o prendono decisioni.

Sicché, per modello di IA l'Executive order n. 14110 intende quella componente di un sistema informatico che alimenta una tecnologia di IA e usa tecniche computazionali, statistiche e di apprendimento meccanico per fornire un prodotto (output) da una serie prestabilita di stimoli (inputs).

Tra le nuove definizioni, v'è anche quella di "AI red-teaming", vale a dire la formazione di "squadre rosse" formate da figure professionali esperte nel simulare le condotte avversarie (vale a dire quelle dei potenziali soggetti malintenzionati, i quali possono attaccare un sistema di IA "sana", impossessarsi dei dati e manipolarne gli outputs) e prevenirle e combatterle.

Per sistema di IA s'intende quindi un sistema di dati, un software, un hardware, un'applicazione, uno strumento o un'utilità che lavora con l'IA, in tutto o in parte.     

Altra definizione di rilievo è quella di "dual-use foundation model". Per esso s'intende quel modello di IA particolarmente potente, il quale è addestrato su masse enormi di dati (almeno 10 miliardi) ed è pertanto applicabile a un'ampia gamma di contesti e ha una resa molto efficace. Esso è generalmente dotato di meccanismi di autocontrollo ma ciò non esclude i fattori di alto rischio cui esso espone. I pericoli del modello dual-use elencati al riguardo dalla definizione dell'Executive order sono:

i)                l'abbassamento della soglia di accesso, da parte di non addetti, alle armi biologiche, chimiche, radiologiche e nucleari;

ii)              l'esposizione ai cyber-attacchi attraverso la scoperta delle vulnerabilità del sistema oggetto di attacco;

iii)            l'elusione del controllo umano.    

L'Executive order precisa che si definiscono dual-use anche quei modelli che dotano l'utente di mezzi tecnici appositamente immaginati per ridurre i predetti rischi.

Esso poi contiene una serie di definizioni, che presuppongono anche nozioni matematiche di frequente uso nell'IA, quali, tra le altre:

-        IA generativa;

-        operazione con integrali;

-        machine learning;

-        model weight (peso del modello);

-        omics (biomolecole).

In chiusura, la lista di definizioni reca sia testbed (vale a dire il meccanismo costruito per collaudare e verificare la tenuta, la funzionalità e l'efficacia di un sistema di IA) sia watermarking (cioè la condotta di marcare il prodotto di IA con un segno difficilmente cancellabile, che consenta di tracciarlo e di riconoscerne la genuinità).

Le 8 finalità testé illustrate si dovranno tradurre nello svolgimento di precise politiche pubbliche, da attuarsi mediante azioni – spesso coordinate e intrecciate tra loro – cui sono preposti diversi dipartimenti governativi e secondo cadenze temporali prefissate.

In estrema sintesi:

  • la finalità della sicurezza è affidata Ministro del commercio, il quale si avvale National Institute of Standards and Technology (NIST). Il Ministro del commercio e il NIST hanno il compito di emanare – entro 270 giorni dal 30 ottobre 2023 - Linee guida e di indentificare buone pratiche per la sicurezza dei sistemi di IA (tra queste l'uso del watermarking) e del relativo impiego.

Il Ministro del commercio è incaricato anche – entro 90 giorni dall'entrata in vigore dell'Executive order – di domandare alle imprese che sviluppano sistemi dual-use di notificargli iniziofasi di avanzamento e cautele adottate in tale attività (compresa l'eventuale istituzione di red-teams), nonché gli assetti proprietari e la titolarità sui quei sistemi (in pratica, al Ministro del commercio è autorizzato a esercitare tutti i poteri che la legge gli conferisce per acquisire notizie sulla circolazione dei diritti di proprietà materiale e intellettuale sui sistemi di IA). Entro 180 giorni dall'entrata in vigore dell'Executive order, il Ministro del commercio deve anche proporre l'adozione di regole al riguardo. Azioni e scadenze sono anche previste a tutela delle infrastrutture critiche degli USA, specialmente contro gli attacchi cybernetici.

E' coinvolto, inoltre, il Ministro per l'energia, al quale spettano compiti di verifica dell'impatto dell'uso dell'IA sui settori della sicurezza energetica;

  • la finalità dell'innovazione responsabile è affidata ai Ministri degli Esteri e dell'Interno (Segretario di Stato e Secretary of Homeland Security). 

In questo contesto, al Segretario di Stato sono assegnati tre termini:

  • uno di 90 giorni per dare apposite istruzioni onde accelerare le procedure d'esame delle domande di ingresso negli Stati Uniti per motivi di lavoro nel campo dell'IA;
  • uno di 120 giorni per riscrivere le regole dei programmi di scambio culturale e professionale con i Paesi terzi;
  • uno di 180 giorni ampliare la platea di beneficiari dei permessi d'ingresso rivolti ai ricercatori e ai docenti di scienze dure (scienze naturali, tecnologia, matematica e ingegneria).

Al Ministro dell'interno, a sua volta, sono dati 180 giorni per rivedere le regole sull'esame delle domande di soggiorno.

E' coinvolto, inoltre, il Ministro del lavoro, al quale è assegnato il compito di stilare una nuova lista di figure professionali legate allo sviluppo tecnologico e dell'IA di cui negli Stati Uniti v'è carenza.

Sono inoltre assegnati funzioni e termini a vari altri soggetti istituzionali per il potenziamento della ricerca, delle università, delle procedure di brevetto e della concorrenza;

  • la finalità della tutela dei lavoratori americani è affidata al Capo dei consiglieri economici del Presidente degli USA e al Ministro del lavoro. Quest'ultimo entro 180 giorni dall'entrata in vigore pubblica un documento in cui siano riportati principi e buone pratiche cui i datori dovrebbero ispirarsi per garantire che l'uso dell'IA assicuri livelli elevati di qualità sui luoghi di lavoro.
     
  • la finalità relativa all'uguaglianza e ai diritti umani è affidata al Ministro della giustizia (Attorney general). Questi – entro 90 giorni dall'entrata in vigore – è tenuto a dare istruzioni al sottosegretario con delega ai diritti umani di promuovere un convegno generale con tutti i funzionari federali incaricati della tutela dei diritti per identificare i fenomeni di discriminazione algoritmica e i mezzi per combatterla; inoltre, entro un anno dall'entrata in vigore, l'Attorney general dovrà predisporre una relazione al Presidente degli USA in cui siano offerti dati precisi sull'uso di sistemi di IA nei seguenti ambiti:

o   quantificazione delle pene;

o   misure alternative alla detenzione;

o   cauzioni e misure cautelari;

o   valutazione dei rischi nella concessione dei benefici penitenziari;

o   sorveglianza speciale;

o   prognosi criminologiche e attività di polizia predittiva;

o   gestione delle carceri;

o   medicina legale;

  • la finalità della protezione di utenti, pazienti e consumatori è deferita ai Ministeri della difesa, della sanità e dei trasporti e a diverse Authorities. L'Executeive order prevede compiti e scadenza a tutela dei veterani di guerra, degli utenti dei servizi sanitari pubblici e privati, dei consumatori e di quanti acquistano valori mobiliari;
     
  • la finalità della protezione dei dati personali è affidata al Direttore dell'Ufficio per il bilancio del Presidente degli stati Uniti (Director of the OMB). Questi ha l'onere di coordinare iniziative concrete per verificare l'efficacia delle misure vigenti al riguardo, nei confronti dei sistemi di IA e per potenziare la ricerca sulla tutela della privacy;
     
  • la finalità della gestione e dell'uso dell'IA nell'Amministrazione federale è affidata – anch'essa - al Direttore dell'Ufficio per il bilancio del Presidente degli stati Uniti (Director of the OMB). Anche in questo caso gli sono assegnati compiti e scadenze volte al coordinare e uniformare l'impiego dell'IA nei dipartimenti federali, anche attraverso la nomina di un Chief AI Officer, responsabile del concreto uso e della diffusione dei sistemi di IA nei pubblici uffici, con particolare riferimento alla promozione dell'uso dell'IA generativa e agli strumenti di gestione dei rischi da essa derivante.  Specifiche scadenze sono anche stabilite per il reclutamento di personale qualificato.
     
  • La finalità inerente alla proiezione globale degli USA in tema di governo dell'IA è affidata al Segretario di Stato. Questi è incaricato di promuovere a livello internazionale la costituzione di sedi specifiche per scambi di conoscenze, azioni coordinate, cooperazione e accordi per adottare standard tecnici comuni. A tale ultimo fine, gli sono assegnati 270 giorni per promuovere:

o   l'adozione di una terminologia comune;

o   la descrizione di buone pratiche;

o   sistemi di verifica e controllo dell'affidabilità dell'IA;

o   strumenti di gestione del rischio.

In chiusura, l'Executive order istituisce il White House AI Council (vale a dire il Consiglio presidenziale per l'IA) con compiti di coordinamento generale del governo del fenomeno e di consiglio al Presidente. Ne fanno parte i ministri citati, unitamente ad altri membri del governo e ad altri alti ufficiali federali.

Francia

Nel marzo del 2018 il Presidente francese Macron annunciò di voler rendere la Francia un Paese leader mondiale nel campo dell'intelligenza artificiale attraverso l'attuazione di una Strategia nazionale[1]. Dopo la prima fase (2018-2022), la Francia è entrata nella seconda fase della strategia (2021-2025). In base alla relazione Villani, sono tre i principali obiettivi strategici: attrarre talenti e investimenti nell'intelligenza artificiale; diffondere l'intelligenza artificiale e i big data nell'economia; promuovere un sistema di intelligenza artificiale etico. In un periodo di cinque anni - fino al 2025 - saranno investiti 30 miliardi di euro per sviluppare la competitività industriale francese e, attraverso di essa, soluzioni nazionali sull'intelligenza artificiale e le nuove tecnologie.

In conformità con gli obiettivi della Strategia, negli ultimi anni sono state adottate varie disposizioni normative che si sono occupate dell'intelligenza artificiale. Per prima, la Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique ha introdotto nell'ordinamento francese un principio di trasparenza degli algoritmi pubblici che vengono utilizzati per basare le singole decisioni amministrative. In particolare, tale principio prevede che una decisione individuale presa sulla base di un'elaborazione algoritmica deve contenere una menzione esplicita di tale elaborazione, che ne informa l'interessato. Inoltre, le regole che definiscono tale trattamento algoritmico nonché le principali caratteristiche dello stesso sono comunicate dall'amministrazione all'interessato qualora ne venga fatta richiesta (art. 4). In attuazione di quest'ultima disposizione è poi intervenuto il Décret n° 2017-330 du 14 mars 2017 relatif aux droits des personnes faisant l'objet de décisions individuelles prises sur le fondement d'un traitement algorithmique, il quale specifica che l'autorità amministrativa comunica al soggetto sottoposto ad una decisione individuale presa sulla base dell'elaborazione algoritmica, su richiesta di quest'ultimo, in forma intelligibile e salvo non siano violati segreti protetti dalla legge, una serie di informazioni (art. 1). La Loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertésall'art. 47 comma 2, cosi come modificato da un'ordinanza del 2018, prevede, sempre seguendo la rotta tracciata dalla loi 2016-1321, che il titolare del trattamento assicuri il controllo del trattamento algoritmico e i suoi sviluppi[2].

Da un altro punto di vista, la legge finanziaria del 2020 ha autorizzato le autorità fiscali, in via sperimentale e per un periodo di tre anni, a raccogliere dati liberamente accessibili sui siti web dei social network e sui gestori di piattaforme online. Tale disposizione (art. 154 della legge finanziaria 2020)[3] mira a prevenire la frode fiscale e a migliorare il perseguimento dei reati fiscali come le attività occulte e la falsa domiciliazione all'estero delle persone fisiche.

L'art. 16 della Loi n° 2021-998 du 30 juillet 2021 relative à la prévention d'actes de terrorisme et au renseignement prende in considerazione l'evoluzione digitale, e quindi le nuove tecnologie e i mezzi di comunicazione utilizzati dai terroristi. In quanto tali, i servizi di intelligence dispongono di nuovi mezzi di controllo e possono implementare il monitoraggio algoritmico dei dati di connessione e navigazione su internet per identificare potenziali terroristi. Per quel che riguarda invece il settore della sanità, l'art. 17 della Loi n° 2021-1017 du 2 août 2021 relative à la bioéthique impone agli operatori sanitari di informare i pazienti quando utilizzano dispositivi medici basati sull'apprendimento automatico e, se del caso, di spiegare l'interpretazione medica che ne deriva.

Al fine di evitare incidenti come quelli avvenuti allo Stade de France durante la finale di Champions League del maggio 2022, l'art. 10 della Loi n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions autorizza la sperimentazione della videosorveglianza intelligente per garantire la sicurezza di eventi sportivi, ricreativi o culturali particolarmente esposti a rischi, a decorrere dalla sua promulgazione fino al 31 marzo 2025. Questi strumenti di intelligenza artificiale, denominati "telecamere aumentate", saranno in grado di rilevare eventi predeterminati (come movimenti di folla, una borsa abbandonata o comportamenti sospetti) nei luoghi che ospitano manifestazioni, nelle loro vicinanze e sui mezzi pubblici. Non potranno utilizzare alcuna tecnica di riconoscimento facciale, sistemi di identificazione biometrica e non potranno utilizzare dati biometrici. Il Décret n° 2023-828 du 28 août 2023 relatif aux modalités de mise en œuvre des traitements algorithmiques sur les images collectées au moyen de systèmes de vidéoprotection et de caméras installées sur des aéronefs, pris en application de l'article 10 de la loi n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions reca le modalità di attuazione di tali trattamenti (in fase di progettazione e in fase di esercizio). Elenca inoltre le persone autorizzate ad accedere ai report di elaborazione. Nell'ambito del regime specifico delle auto autonome, il costruttore dell'auto è responsabile penalmente ai sensi dell'ordinanza n. 2021-443 del 14 aprile 2021 se si verifica un incidente mentre il veicolo è in modalità automatica.

Per quel che riguarda, infine, le iniziative legislative, si ricorda che il 15 gennaio 2020, nella scorsa legislatura, è stato presentato all'Assemblea nazionale un proposta di legge costituzionale relativa alla Carta dell'intelligenza artificiale e degli algoritmi. L'obiettivo era quello di inserire un riferimento alla Carta nel preambolo della Costituzione francese. Nell'attuale legislatura (settembre 2023) è stata presentata una proposta di legge che attribuisce la paternità delle opere create dall'intelligenza artificiale agli autori delle opere utilizzate come input [4].

Germania

Nell'ordinamento tedesco la necessità di regolare gli aspetti dell'intelligenza artificiale si è affermata e sviluppata in modo progressivo. Le prime iniziative, che si caratterizzano per il fatto di guardare all'IA in modo circoscritto, sono rappresentate dalla riforma posta in essere nel 2016 nell'ambito della legge di modernizzazione dei procedimenti fiscali (Gesetz zur Modernisierung des Besteuerungsverfahrens), che ha introdotto la possibilità di ricorrere a procedimenti amministrativi completamente automizzati , e dalle Linee guida in materia di circolazione di veicoli automizzati (Leitlinien für das automatisierte und vernetzte Fahren), elaborate da una Commissione etica istituita il 30 settembre 2016 presso il Ministero federale dei trasporti e dell'infrastruttura digitale e composta da esperti provenienti dalla società civile, dal mondo delle imprese e da accademici.

Nel 2018 il Bundestag ha istituito una Commissione parlamentare d'inchiesta su "Intelligenza artificiale – Responsabilità sociale e potenziale economico, sociale ed ecologico" (Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale), composta 19 deputati e altrettanti esperti esterni, con il compito di esaminare l'impatto futuro dell'intelligenza artificiale sulla vita sociale, sul mondo del lavoro e sull'economia del Paese. I dibattiti in Commissione si sono concentrati sia sulle sfide sia sulle opportunità che l'intelligenza artificiale offre per lo Stato e per la società dal punto di vista tecnico, giuridico e anche etico. Al termine dei lavori, il 28 ottobre 2020, la Commissione ha presentato una corposa Relazione finale (stampato BT n. 19/23700), che è stata oggetto di dibattito nella seduta del Bundestag del 5 novembre 2020.

In una prospettiva sistematica di tenore analogo si inserisce anche il documento recante la Strategia nazionale per l'Intelligenza Artificiale (Strategie Künstliche Intelligenz der Bundesregierung), presentata congiuntamente dal Ministero federale degli affari economici e dell'energia, dal Ministero federale dell'istruzione e della ricerca e dal Ministero federale del lavoro e degli affari sociali il 18 luglio 2018, con l'obiettivo di investire entro il 2025 un importo complessivo di circa 3 miliardi di euro come fondo di risorse pubbliche da utilizzare per realizzare il piano operativo di attuazione delle attività previste. Dopo l'approvazione formale da parte del Governo federale il 15 novembre 2018, la Strategia IA è stata presentata anche in occasione del Digital Summit 2018 organizzato a Norimberga il 3 e 4 dicembre, allo scopo di approfondire l'impatto dell'IA come motore della digitalizzazione per l'economia globale.

Con riguardo all'ambito di applicazione, la Strategia accoglie una nozione per quanto possibile onnicomprensiva di IA, affrontando fenomeni quali il machine learning, le applicazioni relative alla robotica, il deep learning, etc. Gli obiettivi strategici perseguiti sono sostanzialmente tre. Il primo obiettivo è quello di rendere la Germania e l'Europa dei poli di eccellenza nell'ambito dell'utilizzo dell'intelligenza artificiale destinando ingenti finanziamenti pubblici ad attività di ricerca sul tema dell'intelligenza artificiale e a forme di sostegno alle start-up o ad altri soggetti privati. Il secondo obiettivo mira a individuare uno sviluppo e un utilizzo responsabile dell'IA, in funzione del bene della collettività e nel rispetto dei principi etici e giuridici dello Stato democratico. Il terzo obiettivo, infine, ambisce a integrare l'intelligenza artificiale nella società, nel contesto di un più ampio dialogo sociale, che ponga al centro l'uomo e le sue esigenze, nel tentativo di conciliare lo sviluppo dell'intelligenza artificiale con altri interessi rilevanti, quali la sicurezza, la tutela della salute e la protezione dell'ambiente. Al fine di perseguire tali obiettivi la Strategia si articola in 12 azioni, che prevedono l'adozione di misure specifiche dirette a rafforzare la ricerca anche grazie all'incremento delle competenze di specialisti, ricercatori e professionisti ICT, in grado di fornire risultati concreti per il sistema economico-sociale, per il settore dell'industria, nonché per la modernizzazione dell'amministrazione pubblica. Alla luce della radicale trasformazione digitale del mercato del lavoro, il Governo federale si è impegnato, inoltre, a predisporre programmi nazionali di formazione funzionali a garantire l'adeguamento delle competenze dei dipendenti, lavoratori e professionisti, anche mediante una riforma organica dei sistemi di istruzione esistenti a livello scolastico e universitario. La Strategia IA considera, altresì, prioritario l'utilizzo dell'intelligenza artificiale nel settore e-Gov, per migliorare il livello di qualità della pubblica amministrazione, attraverso l'erogazione di servizi pubblici più efficienti e personalizzati per i cittadini.

La Strategia ha previsto anche l'istituzione dell'Agentur für Sprunginnovationen (SPRIND GmbH), concepita come una società a responsabilità limitata il cui capitale è controllato dalla Federazione, con il compito di finanziare le Sprunginnovationen, ovvero le innovazioni sul piano tecnologico in grado di avere un rilevante impatto sul mercato. L'istituzione di questa Agenzia, con sede a Lipsia, nasce dalla consapevolezza della mancanza nel sistema tedesco di uno strumento di finanziamento pubblico sufficientemente flessibile per sviluppare idee altamente innovative. Il Governo federale ha poi deciso di presentare nel mese di agosto 2023 un disegno di legge sul funzionamento dell'Agenzia e sulla flessibilizzazione del suo quadro giuridico e finanziario. La legge (Gesetz über die Arbeitsweise der Bundesagentur für Sprunginnovationen und zur Flexibilisierung ihrer rechtlichen und finanziellen Rahmenbedingungen), approvata da entrambi i rami del Parlamento, è entrata in vigore il 30 dicembre 2023.

Per quanto riguarda l'ambito delle politiche relative al lavoro, la Strategia governativa propone l'istituzione di osservatori sull'IA, incaricati di monitorare l'introduzione di tecnologie di intelligenza artificiale ed effettuare valutazioni del loro impatto rispetto al mondo del lavoro. Viene ventilata anche la possibilità di introdurre ex novo un'agenzia governativa (Bundesagentur) o agenzie private di audit o, in alternativa, di espandere le competenze di quelle esistenti, al fine di vigilare sull'uso di tecnologie di IA.

Infine, nell'intento di promuovere ulteriormente lo sviluppo dell'IA a livello nazionale ed europeo, il 7 novembre 2023 il Ministero federale dell'istruzione e della ricerca ha presentato un nuovo Piano d'azione sull'intelligenza artificiale (BMBF-Aktionsplan "Künstliche Intelligenz") allo scopo di rilanciare la cooperazione europea per tenere il passo con gli Stati Uniti d'America e la Cina, paesi già dominanti nel settore. Per implementare lo sviluppo dell'IA, obiettivo al quale sarà destinato un ulteriore investimento di 1,6 miliardi di euro, saranno promosse nuove misure incentrate sulla ricerca, sulle competenze tecnologiche e sullo sviluppo delle infrastrutture.

Portogallo

Nel febbraio 2019 il Governo portoghese ha lanciato la strategia AI Portugal 2030 con l'obiettivo di rafforzare la crescita economica, l'eccellenza scientifica e lo sviluppo umano attraverso l'utilizzo dell'intelligenza artificiale. L'iniziativa è stata assunta all'interno del più ampio programma di innovazione INCoDE.2030, varato nel 2017, per sviluppare le competenze digitali del Paese.

Nel capitolo 6 della strategia AI Portugal 2030 sono proposti i seguenti obiettivi chiave:

-       promozione di una società migliore attraverso l'innalzamento della qualità dei servizi e la garanzia della dignità umana e della qualità della vita;

-       valorizzazione delle abilità nell'ambito dell'IA attraverso un adeguato sistema educativo;

-       promozione di nuovi lavori e sviluppo di un'economia di servizi basati sull'IA sia in ambito pubblico che privato;

-       presentazione del Portogallo come laboratorio vivente di sperimentazione delle tecnologie basate sull'IA;

-       creazione di nicchie di mercato dell'IA attraverso servizi chiave specializzati in Portogallo;

-       evoluzione di nuove conoscenze attraverso la ricerca e l'innovazione sull'IA;

-       offerta di migliori servizi pubblici per i cittadini e le imprese e adozione di approcci basati sull'evidenza relativamente alle politiche pubbliche e ai processi decisionali, con l'utilizzo della vasta quantità di dati amministrativi già disponibili.

Tra gli obiettivi evidenziati nella Strategia vi è poi il rafforzamento della solidità sociale attraverso la crescente applicazione dell'IA, il cui utilizzo in una dimensione etica può rappresentare un potente strumento per migliorare la società e la democrazia.

Più recentemente, nel 2022, l'Agenzia per la modernizzazione amministrativa (Agência para a Modernização Administrativa) ha pubblicato la Guida all'intelligenza artificiale etica, trasparente e responsabile nella Pubblica Amministrazione che fornisce una panoramica delle principali caratteristiche dell'IA, del mercato ad essa connesso e dell'ecosistema portoghese. La Guida presenta anche una serie di principi che devono essere seguiti nell'uso dei sistemi di IA da parte della Pubblica Amministrazione sollecitando il dibattito pubblico sulla necessità di:

-       stabilire i pilastri di regolamentazione, supervisione, leadership e governance;

-       sviluppare un codice etico;

-       promuovere una normativa che sia di riferimento e supporto agli sviluppi tecnologici.

La Guida stabilisce inoltre un insieme di valori e principi in linea con l'elenco dei diritti umani ed esplora i temi dell'inclusione, dell'uguaglianza, dello sviluppo sostenibile e del benessere.

La legislazione portoghese sull'intelligenza artificiale

Con la legge n. 27/2021 è stata adottata la Carta portoghese dei diritti umani nell'era digitale. In particolare, l'articolo 9, in materia di utilizzo dell'IA e dei robot, prescrive che l'utilizzo dell'intelligenza artificiale deve essere guidato dal rispetto dei diritti fondamentali, evitando ogni forma di pregiudizio e discriminazione; stabilisce altresì che le decisioni di rilevante impatto sui destinatari adottate mediante l'utilizzo di algoritmi devono essere comunicate agli interessati essendo suscettibili di ricorso e verificabili nei termini di legge.

Il decreto-legge 67/2021 definisce il quadro giuridico per la creazione delle zone franche tecnologiche (zonas livres tecnológicas, ZLT).  Le ZLT sono aree geografiche reali create come ambienti di prova (sandbox) regolamentati con l'obiettivo di promuovere e facilitare le attività di ricerca, sviluppo e sperimentazione relative a tecnologie, prodotti e servizi innovativi, compresa l'IA, in tutti i settori industriali[5].

La stessa Costituzione portoghese all'articolo 35, comma 2, sull'utilizzo dei dati informatici, dispone che la legge determina quali siano i dati personali nonché le condizioni applicabili al trattamento automatizzato, alla connessione, alla trasmissione e all'utilizzo degli stessi, garantendone la protezione mediante un organo amministrativo indipendente.

Le risorse per la transizione digitale del PRR portoghese

La necessità di investire nella transizione digitale, in particolare nello sviluppo di competenze digitali, sia di base che avanzate, nell'uso delle tecnologie digitali per garantire parità di accesso a un'istruzione e a una formazione di qualità e di rafforzare la competitività delle imprese rappresentano le sfide che il Portogallo intende affrontare nel prossimo futuro. Il programma è particolarmente rilevante in un Paese in cui l'economia è caratterizzata da microimprese concentrate in settori tradizionali.

 Il Piano per la ripresa e la resilienza del Portogallo sostiene la transizione digitale con investimenti e riforme nei settori delle competenze, della digitalizzazione dell'istruzione e delle imprese, nonché della digitalizzazione del settore pubblico (pubblica amministrazione generale, sanità, sistema giudiziario e amministrazione fiscale). Nel settore delle qualifiche e delle competenze, una delle riforme mira ad aggiornare l'offerta di corsi e qualifiche per l'istruzione e la formazione professionale e per i programmi di apprendimento permanente. La riforma è sostenuta da investimenti per 710 milioni di euro per la modernizzazione degli istituti di istruzione e formazione professionale. Nell'ambito della sanità digitale sono previsti investimenti per 300 milioni di euro destinati all'ammodernamento dei sistemi informatici del Servizio sanitario nazionale e all'incremento della digitalizzazione delle cartelle cliniche.

La digitalizzazione del settore delle imprese beneficia di 650 milioni di euro a sostegno delle piccole e medie imprese e dei loro lavoratori con cicli di formazione "su misura" in materia di competenze digitali e coaching per l'adozione di tecnologie digitali.

All'interno del PRR sono fissati, con particolare riferimento all'intelligenza artificiale, il recepimento della direttiva (UE) 2019/1024 relativa all'apertura dei dati e al riutilizzo dell'informazione del settore pubblico[6], avvenuto con la legge 68/2021, e la trasformazione digitale dei tribunali (giudiziari, amministrativi e tributari) attraverso la fornitura di sistemi informativi per il trattamento dematerializzato dei procedimenti giudiziari elettronici e con meccanismi di intelligenza artificiale, da realizzarsi entro il 2025[7].

Il Portogallo ha allocato sul digitale[8] il 22% del budget totale del suo PRR (3,7 miliardi di euro).

Regno Unito

Nel Regno Unito, l'Intelligenza Artificiale (Artificial Intelligence - AI) è materia di politiche pubbliche i cui indirizzi sono stati formulati in alcuni documenti programmatici adottati dal Governo. Queste linee programmatiche hanno assegnato spazio prevalente all'attività di regolazione, vigilanza e garanzia delle authorities di settore, ritenendo l'intervento legislativo suscettibile di introdurre elementi di rigidità nelle fasi ancora iniziali dello sviluppo della tecnologia e dei mercati di riferimento.  

In primo luogo, l'AI è al centro della National AI Strategy adottata dal Governo britannico il 21 settembre 2021, le cui finalità sono individuate nello sviluppo dell'industria e dell'economia nazionale e nella creazione di un "ecosistema" favorevole all'innovazione. A tale scopo è previsto un programma decennale, la cui attuazione è ritenuta necessaria anche nella prospettiva del conseguimento, da parte del Regno Unito, di un ruolo guida nella definizione di una governance internazionale dell'AI in grado di promuovere la sua diffusione e, nel contempo, di evitare che ne derivino pregiudizi per la società e per la tutela dei valori fondamentali.

In questa direzione si è posta l'iniziativa assunta dal Regno Unito nel quadro della cooperazione internazionale, ospitando il 2-3 novembre 2023 il Global AI Safety Summit, la cui dichiarazione finale (The Bletchey Declaration on AI Safety) individua nella sicurezza dei sistemi avanzati di AI l'oggetto di una responsabilità condivisa dai soggetti produttori e utilizzatori, sussistente dal momento dello sviluppo iniziale di tali sistemi a quello del loro impiego successivo.

Nell'ambito nazionale, l'approccio del Governo britannico si è finora caratterizzato per il risalto attribuito ai criteri di proporzionalità e flessibilità, ai quali devono conformarsi le misure applicabili ai nuovi strumenti tecnologici al fine di minimizzarne i rischi e di renderli affidabili presso la collettività. Secondo questa impostazione - enunciata nel Libro bianco pubblicato il 29 marzo 2023 (A pro-innovation approach to AI regulation) -, l'ambiente regolatorio favorevole allo sviluppo del settore è costituito dal diritto vigente, applicabile quando l'utilizzazione dei sistemi di AI presenti aspetti rilevanti per la legislazione in materia di eguaglianza e non discriminazione, di tutela dei consumatori, di sicurezza dei prodotti, di servizi finanziari, con il conseguente attivarsi delle Autorità di regolazione dei settori interessati. Questa cornice normativa generale dovrà successivamente integrarsi, nei propositi del Governo, con regole caratterizzate da maggiore specificità, aderenti e adattabili al caso specifico (context-specific), chiare nel contenuto, in grado di individuare i rischi effettivi e di promuovere la fiducia della collettività (trustworthy), e aperte al contributo degli operatori (collaborative).

Il Libro bianco (la cui pubblicazione ha dato avvio ad una consultazione pubblica sul tema) stabilisce altresì che le Autorità di regolazione, nell'esercizio delle loro funzioni nei rispettivi settori di competenza, debbano attenersi ad alcuni principi di rilevanza trasversale. Detti principi sono individuati nella sicurezza e solidità dei sistemi, relativamente alla loro complessiva gestione e all'intero "ciclo di vita" del loro funzionamento (safety, security, robustness); nella trasparenza e nella "spiegabilità" delle procedure poste in essere dai sistemi (appropriate transparency and explainability); nella loro correttezza ed imparzialità, affinché non presentino il rischio di ledere i diritti di persone fisiche o giuridiche (fairness); nella complessiva conformità dei sistemi, da perseguire mediante la chiara definizione delle responsabilità, l'effettiva individuazione dei rischi, il rispetto di "buone pratiche" (governance and accountability); infine, nella previsione di effettivi strumenti di reclamo e di meccanismi indennitari accessibili ai terzi per i quali  l'utilizzazione di sistemi di AI sia stata causa di danno (contestability and redress). È peraltro indicativo della flessibilità dell'approccio delineato nel "libro bianco" che dai principi individuati sia al momento espressamente esclusa la "codificazione" normativa, e che ne sia perseguita l'applicazione sperimentale da parte delle Autorità di regolazione, salva la possibilità di successivi interventi diretti a conferire ad essi una coerente base legislativa o ad introdurre norme di coordinamento. 

In conformità agli indirizzi, le maggiori Authorities si sono dotate di strumenti di sperimentazione normativa e di cooperazione. Vale l'esempio dell'Autorità di vigilanza sui servizi finanziari (Financial Conduct Authority – FCA), che ha predisposto una digital sandbox, ovvero un'area digitale riservata in cui le imprese possono, con l'assistenza dell'Autorità, sperimentare i propri sistemi di IA con modalità conformi alla normativa eurounitaria sulla protezione dei dati personali (GDPR). La FCA ha inoltre costituito un meccanismo di cooperazione (il Digital Regulation Cooperation Forum – DRCF) con altre Autorità indipendenti quali l'Information Commissioner Office (ICO), la Competition Market Authority (CMA) e l'Autorità di regolazione delle comunicazioni (Ofcom) al fine di coordinare la regolazione delle piattaforme e dei servizi digitali, compresi quelli fondati sull'utilizzazione di sistemi di AI; le medesime Autorità hanno peraltro provveduto a pubblicare rapporti e linee-guida concernenti l'impatto dell'IA nei settori di loro competenza.

La centralità assegnata al ruolo delle Autorità indipendenti nella disciplina delle molteplici implicazioni della diffusione dei sistemi di AI è avvalorata dalla recente presentazione, il 22 novembre 2023, di un progetto di legge alla Camera dei Lord, l'Artificial Intelligence Regulation Bill. Le disposizioni del bill (di iniziativa parlamentare e giunto alla seconda lettura della Camera Alta) prevedono infatti l'istituzione di una apposita "AI authority" investita di una serie di compiti, tra cui quello di intervenire affinché i diversi soggetti regolatori tengano in considerazione l'impatto dell'AI nei settori di loro competenza ed esercitino le rispettive funzioni in modo coordinato; la nuova Autorità avrebbe inoltre il compito di accreditare auditors indipendenti e, mediante l'esercizio di funzioni consultive, di sottoporre a revisione la legislazione vigente al fine di accertarne l'adeguatezza ai fini di una effettiva disciplina dei sistemi di AI in relazione alla tutela della privacy, della sicurezza dei prodotti e della tutela dei consumatori. 

A completamento della breve rassegna va infine segnalato il ruolo di impulso e di coordinamento che relativamente ai profili della sicurezza dei sistemi AI è attribuito al centro di ricerca istituito dal Governo nel novembre del 2023, l'Artificial Intelligence Safety Institute (AISI). I compiti dell'organismo – come si afferma nel documento che ne illustra le finalità - sono appunto diretti a "minimizzare per il Regno Unito e per l'umanità le sorprese derivanti dai rapidi e inaspettati sviluppi dell'AI", e a contribuire affinché a fronte di questa evoluzione tecnologica il Regno Unito possa detenere una posizione di leadership nella comunità internazionale. Nello svolgimento delle sue funzioni, l'AISI effettua un vaglio risultante dall'applicazione di quattro fondamentali criteri valutativi. Questi sono diretti ad accertare, rispettivamente, la eventuale utilizzabilità dei sistemi predetti in ambito sia civile che militare (dual-use capabilities), con riferimento ai rischi del loro impiego in campo chimico, biologico, di cyber-criminalità nonché (nello scenario caratteristico della "guerra ibrida") di persuasione manipolativa e di disinformazione su larga scala; l'impatto sociale (societal impacts) che l'utilizzazione di sistemi di AI può produrre in quanto essi comportino il rischio di ledere la riservatezza individuale, di condurre a trattamenti discriminatori, di incrinare la fiducia nelle istituzioni democratiche; la sicurezza e la protezione dei sistemi medesimi (system safety and security), da perseguire mediante l'analisi dei limiti intrinseci ai dispositivi di salvaguardia  esistenti e il relativo adeguamento infrastrutturale; la prevenzione del rischio della perdita di controllo umano (loss of control) rispetto alla crescente capacità ed autonomia dei sistemi.

Nel solco dei criteri sopra richiamati, infine, sono state elaborate linee-guida per l'utilizzazione di sistemi di AI in diversi settori, tra cui si segnalano quelle concernenti la pubblica amministrazione, destinataria della guidance recentemente predisposta dal Cabinet Office per l'uso della AI generativa (Generative AI Framework for HM Government, del 24 gennaio 2024).               

Spagna

Il tema dell'intelligenza artificiale è stato prioritariamente affrontato in alcuni documenti strategici del Governo, che nel luglio 2020 ha lanciato l'Agenda Spagna Digitale 2025 in cui ha delineato la tabella di marcia del processo di digitalizzazione del Paese. L'Agenda reca un insieme di misure, riforme e investimenti, organizzati attorno a dieci assi strategici[9], in linea con le politiche digitali definite dalla Commissione europea. Le azioni proposte sono volte a promuove una forma di crescita più sostenibile e inclusiva, alimentata dalle sinergie tra transizioni digitali ed ecologia, che raggiunga l'intera società e concili le nuove opportunità offerte dal mondo digitale con il rispetto dei valori costituzionali e la tutela dei diritti individuali e collettivi.

La Strategia nazionale sull'intelligenza artificiale (Estrategia Nacional de Inteligencia Artificial, ENIA), prevista al punto 41 dell'Allegato I dell'Agenda Spagna Digitale 2025, è stata pubblicata nel novembre 2020 insieme ad altri 7 Piani nazionali[10]. Tra i sette obiettivi strategici individuati nel documento sono contemplati i valori umanistici all'interno dell'IA con la finalità di sollecitare a livello globale un dibattito su tale aspetto dello sviluppo tecnologico (Human-Centered AI) essenziale per la garanzia dei diritti individuali e collettivi della cittadinanza. L'ENIA è stata inserita alla Componente 16 del Piano di Recupero, Trasformazione e Resilienza pubblicato il 27 aprile 2021. L'investimento inizialmente stimato per il raggiungimento degli obiettivi previsti dalla Strategia è di 500 milioni di euro.

La centralità della dimensione umanistica e del rispetto dei diritti e dei valori democratici all'interno dei processo di digitalizzazione è sancita dalla Carta dei diritti digitali  (prevista al punto 45 dell'Allegato I dell'Agenda Spagna Digitale 2025) nel luglio 2021. La Carta è punto di riferimento per tutte le riforme introdotte da Spagna Digitale 2025 e mira ad assicurare che gli ambienti digitali siano governati dai valori costituzionali e dal rispetto dei diritti fondamentali. In particolare, al capitolo 5, XXV, si fa riferimento ai diritti relativi all'intelligenza artificiale che deve garantire l'attenzione alla persona e alla sua inalienabile dignità; si riconosce altresì il diritto di ogni individuo di chiedere una supervisione umana e di contestare le decisioni assunte da sistemi automatizzati di IA che incidono sulla sua sfera personale e patrimoniale. La Carta non ha carattere normativo, ma il suo obiettivo è riconoscere le sfide poste dall'adattamento dei diritti all'ambiente digitale, offrendo un quadro di riferimento per l'azione dei poteri pubblici al fine di garantire una digitalizzazione umanistica, in cui le persone siano poste al centro dei processi.

Nel dicembre 2022 è stato pubblicato l'aggiornamento dell'Agenda Spagna Digitale 2026. Sono stati introdotti due nuovi assi trasversali: i Progetti strategici di ripresa e trasformazione economica (Proyectos estratégicos para la recuperación y transformación económicaPERTE) e l'iniziativa RETECH (Redes Territoriales de Especialización Tecnológica), una rete di progetti strategici in ambito digitale proposti da parte delle Comunità autonome. L'investimento per l'attuazione della Strategia nazionale sull'intelligenza artificiale è stato innalzato a 600 milioni di euro, mentre lo stanziamento complessivo per gli 8 piani settoriali[11] finalizzati allo sviluppo della digitalizzazione è stato fissato a 18.432 milioni di euro.

La legislazione spagnola sull'intelligenza artificiale

Nella legislazione spagnola gli atti normativi riferiti al sistema dell'intelligenza artificiale sono scarsi e frammentari, in parte costituiti dalla trasposizione a livello nazionale di direttive europee (Regio decreto 24/2021 che reca disposizioni sulla proprietà intellettuale e sul diritto d'autore), in parte approvati per regolare aspetti specifici connessi all'utilizzo degli algoritmi e alla protezione dei dati, tra i quali:

-       la legge 15/2022, sulla parità di trattamento e non discriminazione che all'articolo 23 prevede una serie di disposizioni che le pubbliche amministrazioni devono osservare quando utilizzano algoritmi nel processo decisionale;

-       la legge organica 3/2018 sulla protezione dei dati personali e la garanzia dei diritti digitali che, oltre al regolamento europeo sulla protezione dei dati personali (2016/679), si applica ai sistemi di intelligenza artificiale che utilizzano dati personali.

L'8 novembre 2023 il Consiglio dei ministri ha approvato, nell'ambito delle iniziative connesse all'agenda Spagna Digitale 2026, il Regio decreto 817/2023, che istituisce un ambiente di prova controllato (sandbox) per testare la conformità alla proposta di regolamento europeo che stabilisce norme armonizzate sull'intelligenza artificiale con l'obiettivo di garantire il rispetto dei diritti fondamentali dei cittadini e generare fiducia nello sviluppo e nell'utilizzo dell'IA. La proposta non regolamenta la tecnologia in sé, ma le applicazioni ad alto rischio dell'intelligenza artificiale.

Con il regio decreto 817/2023 il Governo spagnolo ha quindi avviato il primo ambiente di prova controllato per verificare come implementare i requisiti applicabili ai sistemi di intelligenza artificiale ad alto rischio, oggetto della proposta di regolamento europeo sull'intelligenza artificiale, con l'obiettivo di ottenere guide basate su evidenze e sperimentazioni che facilitino l'allineamento degli enti, delle aziende e, in particolare, delle piccole e medie imprese, alla citata proposta di regolamento. Le disposizioni si applicano alle pubbliche amministrazioni e a soggetti privati selezionati nell'ambiente di prova controllato dell'intelligenza artificiale. L'atto normativo, ispirandosi alla Carta dei diritti digitali, mira a dare forma concreta all'impegno di creare un quadro etico e normativo che rafforzi la protezione dei diritti individuali e collettivi per attuare una trasformazione digitale etica ed "umanistica". Qualsiasi entità selezionata per partecipare a questo ambiente di prova deve essere soggetta alla giurisdizione spagnola. La Spagna ha fatto della digitalizzazione umanistica il fulcro della sua trasformazione digitale, garantendo che i principi, i valori e i diritti che sono alla base della società democratica, siano anche la base delle interazioni digitali. Il decreto avrà una vigenza di 36 mesi dalla sua entrata in vigore, ovvero fino all'adozione del regolamento europeo che stabilirà norme armonizzate in materia di intelligenza artificiale.

Infine, nell'attuale legislatura (XV) è stata presentata dal Gruppo parlamentare plurinazionale SUMAR una sulla regolamentazione delle simulazioni di immagini e voci di persone generate per mezzo dell'intelligenza artificiale.

Cina

Il 13 luglio 2024 la Cyberspace Administration of China - il principale sistema di controllo e censura della rete internet del Paese - ha pubblicato una serie di linee guida per regolamentare il settore dell'intelligenza artificiale generativa, le cd. "Misure provvisorie per la gestione dei servizi di intelligenza artificiale generativa", promulgate il 10 luglio 2023 ed entrate in vigore il successivo 15 agosto 2023.

Una delle differenze principali tra la regolamentazione europea e quella cinese consiste nell'ambito di applicazione della relativa disciplina: il provvedimento emanato in Cina, infatti, è strettamente circoscritto all'intelligenza artificiale generativa, mentre il progetto di regolamento europeo, nell'attuale versione, riguarda l'intelligenza artificiale nella sua totalità[12]. Le misure cinesi concernono i fornitori dei servizi di intelligenza artificiale generativa e, più in particolare, la vigilanza sugli stessi. I fornitori di servizi di intelligenza artificiale generativa comprendono non solo le entità che offrono servizi direttamente utilizzando la tecnologia di intelligenza artificiale generativa, ma anche coloro che supportano indirettamente altre entità nella generazione di testo, immagini, suoni e altri servizi attraverso, ad esempio, la fornitura di interfacce programmabili (articolo 22). L'ambito di applicazione del provvedimento è inoltre definito all'articolo 2 in modo tale che esso sia applicabile solo ai servizi accessibili al pubblico, in generale, all'interno della Cina. In particolare, le misure cinesi escludono dal loro ambito di applicazione i servizi di intelligenza artificiale generativa sviluppati e utilizzati da imprese, istituti di ricerca, istituti accademici e altri enti pubblici. La regolamentazione cinese prevede inoltre una tutela ad hoc per i diritti di proprietà intellettuale coinvolti nei processi di formazione di intelligenza artificiale generativa, stabilendo espressamente che i fornitori e gli utenti dei servizi di intelligenza artificiale generativa dovranno "rispettare i diritti di proprietà intellettuale e l'etica commerciale, proteggere i segreti commerciali e non praticare il monopolio o la concorrenza sleale sfruttando algoritmi, dati, piattaforme e altri vantaggi" (articolo 4, comma 3). Dovranno inoltre essere rispettati i diritti e gli interessi legittimi altrui (articolo 4 comma 4)[13].

Le misure di intelligenza artificiale generativa richiedono inoltre ai fornitori di servizi di reperire dati e modelli di base da fonti legittime, e di elaborare le informazioni personali con il consenso delle persone interessate. I fornitori devono impiegare strumenti concreti volti a migliorare costantemente la qualità delle attività di addestramento del proprio personale, puntando inoltre a far sì che tali attività di addestramento siano ispirate a principi di autenticità, accuratezza, obiettività e differenziazione (articolo 7). Durante la fase di sviluppo, i fornitori dei servizi devono stabilire regole di classificazione delle informazioni trattate chiare, specifiche e pratiche. È inoltre necessario effettuare valutazioni della qualità della classificazione dei dati, anche attraverso verifiche a campione, allo scopo di garantire l'accuratezza del contenuto dei dati classificati (articoli 8 e 12).

I fornitori firmano accordi di servizio con gli utenti che si registrano per i loro servizi di intelligenza artificiale generativa, chiarendo i diritti e gli obblighi di entrambe le parti. Essi sono ritenuti responsabili, come produttori di contenuti, ai sensi delle misure sull'intelligenza artificiale generativa (articolo 9). Quando vengono identificati contenuti illegali tra gli utenti dei servizi di intelligenza artificiale, i fornitori devono pertanto intraprendere prontamente determinate azioni, tra cui la sospensione della generazione e della trasmissione dei contenuti, la rimozione dei contenuti e la risoluzione del problema attraverso l'ottimizzazione del modello di generazione delle informazioni. Inoltre, i fornitori sono tenuti a segnalare tali incidenti alle autorità di regolamentazione (articolo 14). Questa disposizione impone quindi ai fornitori di intelligenza artificiale generativa di monitorare e correggere autonomamente i contenuti illegali. Al momento del rilevamento di contenuti illegali dovrebbero inoltre essere adottate le misure necessarie per prevenirne la generazione e la diffusione e per evitare ulteriori danni, e i fornitori di IA generativa dovrebbero correggere i loro algoritmi, ottimizzare i loro modelli e segnalare tali passaggi alle autorità di regolamentazione[14].

L'articolo 11 delle misure impone ai fornitori di servizi di intelligenza artificiale generativa di proteggere le informazioni inserite dagli utenti durante l'utilizzo dei loro servizi e i registri di tali informazioni. Poiché le informazioni inserite possono contenere segreti commerciali, informazioni personali o altre informazioni sensibili, i fornitori dei servizi di intelligenza artificiale generativa non devono fornire illegalmente tali informazioni o registrazioni ad altri, né conservare illegalmente informazioni o registrazioni di dati che possono essere utilizzate per identificare gli utenti. Inoltre, non è consentito divulgare a terzi le informazioni e i record di utilizzo degli utenti. I fornitori devono istituire un meccanismo per ricevere e gestire i reclami degli utenti. Qualsiasi richiesta da parte degli utenti di accedere, ottenere copie, correggere o cancellare i propri dati personali deve essere gestita tempestivamente (articoli 11 e 15). I servizi di intelligenza artificiale generativa associati all'opinione pubblica o ad attributi di mobilitazione sociale devono essere sottoposti a una valutazione della sicurezza per quel che riguarda l'archiviazione dei relativi algoritmi da parte dei fornitori (articolo 17). Ciò si pone in linea con le disposizioni contenute nell'articolo 4, comma 1, secondo il quale la fornitura dei servizi di intelligenza artificiale deve aderire ai valori socialisti fondamentali e non deve produrre contenuti vietati da leggi e regolamenti amministrativi, come l'incitamento alla sovversione del potere statale, il rovesciamento del sistema socialista, la messa in pericolo della sicurezza e degli interessi nazionali, il danneggiamento dell'immagine del Paese, l'incitamento al separatismo, l'indebolimento dell'unità nazionale e della stabilità sociale, il sostegno al terrorismo o all'estremismo, il sostegno all'odio etnico, alla discriminazione etnica, alla violenza, all'oscenità, alla pornografia e alle informazioni false e dannose. Ai sensi dell'articolo 18, se gli utenti riscontrano che i servizi di intelligenza artificiale generativa non rispettano le leggi, i regolamenti amministrativi e le misure in commento, hanno diritto a presentare un reclamo o una denuncia alle autorità competenti, le quali vigilano e ispezionano sulla base di quanto previsto dall'articolo 19. Le sanzioni, anche di tipo penale, sono infine stabilite dall'articolo 21.

[1] Vedi al riguardo la La stratégie nationale pour l'intelligence artificielle, sul sito entreprises.gouv.fr, 17 ottobre 2023

[2] Vedi in tal senso Gilles J. Guglielmi, Contrôle des algorithmes et droit du contentieux administratif français , Revue générale du droit, 2022 e Jean-Baptiste Duclercq, Le droit public à l'ère des algorithmes, Revue du droit public - n°5 - page 1401, 2017.

[3] In attuazione di tale articolo è intervenuto il Décret n° 2021-148 du 11 février 2021 portant modalités de mise en œuvre par la direction générale des finances publiques et la direction générale des douanes et droits indirects de traitements informatisés et automatisés permettant la collecte et l'exploitation de données rendues publiques sur les sites internet des opérateurs de plateforme en ligne, che specifica che il trattamento utilizzato deve essere adattato alla finalità prevista e riguardare solo contenuti che sono stati chiaramente resi pubblici. Vedi anche al riguardo L'administration pourra collecter les données rendues publiques sur les réseaux sociaux, su legifiscal.fr, 2021.

[4] Maggiori informazioni al riguardo sono reperibili al seguente link: In Francia la prima proposta di legge che attribuisce la paternità delle opere create dall'intelligenza artificiale agli autori delle opere utilizzate come input | Akran

[5] In precedenza era stata già approvata dal Consiglio dei ministri la risoluzione n.° 29/2020 recante i principi generali per la creazione e la regolamentazione delle zone franche tecnologiche.

[6] Allegato 2, C16

[7] Allegato 2, C18

[8] Fonte: 2023 Country Report - Portugal  

[9] 1. Connettività digitale; 2. Potenziamento della tecnologia 5G; 3. Competenze digitali; 4. Cybersicurezza; 5. Trasformazione digitale del settore pubblico; 6. Trasformazione digitale dell'impresa e apprendimento digitale; 7. Progetti guida nella digitalizzazione settoriale; 8. Investimenti nel settore audiovisivo; 9. Data economy e intelligenza artificiale; 10. Diritti digitali.

[10] Infrastrutture digitali e connettività per la società, l'economia e i territori; Strategia per la promozione della tecnologia 5G; Competenze digitali; Digitalizzazione delle piccole e medie imprese; Digitalizzazione della Pubblica Amministrazione; Spagna hub audiovisivo dell'Europa; Cybersecurity.

[11] 1. Piano per la connettività e le infrastrutture digitali (1960 mln); 2. Strategia di potenziamento della tecnologia 5G (1514 mln); 3. Piano nazionale della cybersicurezza (1000 mln); 4. Strategia nazionale sull'intelligenza artificiale (600 mln); 5. Piano di digitalizzazione delle amministrazioni pubbliche (3.165 mln); 6. Piano di digitalizzazione delle PMI (5.000 mln); 7. Spagna, hub audiovisivo d'Europa (1.600 mln); 8. Piano nazionale delle competenze digitali (3.593 mln).

[12] Vedi al riguardo Paola Furiosi e Giulia Gialletti, La Cina batte i record per la regolamentazione dell'Intelligenza artificiale: il primo regolamento sull'AI generativa in vigore dal prossimo 15 agosto, Nt+Diritto, 26 luglio 2023

[13] Vedi Focus on: Data Protection Law in China – China's First Generative Artificial Intelligence Regulation, Legal 500, 2023

[14] Vedi al riguardo Yi Wu: How to Interpret China's First Effort to Regulate Generative AI Measures, China briefing, 27 luglio 2023

 

Articolo originale pubblicato sul sito della Camera dei deputati in data 16.02.2024

competenze digitali