Con la legge AI tutele e fondi per innovare

Grazie alla Commissione Ai per l’informazione introdotto il reato di deepfake

Intervista del Sottosegretario a Milano Finanza

 

L'articolo in pdf 

Sottosegretario, la legge appena approvata parte da un punto fermo: promuovere un utilizzo corretto dell’AI. Come?

L’Italia fin da quando era capofila al G7 ha avuto la visione di dotarsi di una legge che ponesse l’uomo al centro. Ora con la legge quadro cerchiamo di intercettare i settori più a rischio. Tra questi l’editoria, la giustizia, la sanità, il lavoro, la formazione. Siamo intervenuti per mettere i guardrail alla strada dell’innovazione, in modo da salvaguardare la vita delle persone e la coesione sociale.

Quali sono i rischi per l’editoria e come interviene la legge?

Per l’editoria abbiamo individuato almeno due emergenze, legate all’uso sempre più diffuso dell’AI: la protezione del diritto d’autore e il deteriorarsi del rapporto di fiducia tra cittadini e informazione. Sul copyright si è aperto un dibattito a livello europeo circa l’adeguatezza delle norme vigenti di fronte alla sfida dell’AI. Il tema della tutela del diritto d’autore si pone sia nella fase di input che di output. Nel primo caso la legge approvata interviene confermando il c.d. opt-out, ossia la facoltà per i titolari dei diritti di opporsi all’utilizzo dei loro contenuti per l’addestramento di modelli di AI, sulla scorta della direttiva copyright richiamata anche dall’AI Act europeo. Per quanto riguarda, invece, l’output è necessario applicare con determinazione le norme ordinarie che prevedono la necessaria autorizzazione dei titolari dei diritti per la riproduzione dei contenuti.

Poi c’è il tema della disinformazione e dei deepfake: sui social si moltiplicano le truffe, realizzate con l’AI.

A questo abbiamo dedicato un articolo della legge quadro, il 26, elaborato a partire dalla visione della Commissione Ai per l’informazione e del suo presidente, Padre Benanti. Abbiamo così introdotto il reato di deepfake, punito con la reclusione da uno a cinque anni, che rappresenta un unicum: non è presente in altre norme europee o internazionali. Il reato si configura quando un contenuto viene mistificato con l’utilizzo di tecnologie di AI con finalità criminali.

Sono designate due autorità di vigilanza: AgID e ACN. Quale sarà invece il ruolo dell’Agcom e delle altre Authority?

In generale le altre Authority mantengono i poteri sui loro settori di riferimento. In merito in particolare all’Agcom, considerato il suo ruolo di Digital Service Coordinator, ossia l'istituzione chiamata ad applicare il Regolamento sui servizi digitali, vigilerà affinché sulle piattaforme non vi sia un utilizzo dell'IA lesivo dei diritti degli utenti. Penso in primo luogo all'influenza sul dibattito pubblico tramite campagne di disinformazione favorite dall'IA, ma anche alla necessità di tutelare i minori da contenuti deep fake che ne possano pregiudicare lo sviluppo, nonché evitare che sistemi di IA sfruttino illegittimamente o violino il copyright.

La legge attiva investimenti per un miliardo di euro. A cosa serviranno?

I fondi saranno dedicati alle società, prevalentemente startup, che lavorano su AI, cybersicurezza, tecnologie quantistiche, sistemi di telecomunicazioni. Gli investimenti si avvarranno di Cdp Venture Capital. E’ solo un inizio. Altri Paesi, che hanno più risorse, investono di più, ma noi puntiamo sulla capacità italiana di formare talenti grazie alle nostre ottime Università e di lanciare progetti innovativi.

Continuate a sostenere anche l’editoria tradizionale?

Per le edicole abbiamo fatto un dpcm ad hoc che stanzia in totale 17 milioni per il 2025. Di questi, 10 milioni sono dedicati alle edicole, 3 milioni ai punti vendita non esclusivi e 4 milioni alla distribuzione.

La legge prevede anche un aggiornamento periodico della strategia nazionale per l’AI. Quali sono i tempi?

In generale la strategia nazionale per l’AI ha validità triennale per coprire un ciclo di innovazione che di solito dura 2-3 anni. Ma se qualcosa cambia più in fretta la strategia dovrà adattarsi anche al di fuori di queste tempistiche, ad esempio sfruttando i decreti legislativi per recepire più in fretta le novità. 

Class Editori ha lanciato Mf Gpt, la prima AI generativa di un gruppo editoriale italiano. Può essere una strada da replicare, in alternativa alla vendita dei dati ai grandi player come OpenAI?

Quella intrapresa dal gruppo Class con Mf Gpt è una scelta strategica, oltre che una strada meritoria e illuminata, per difendere il proprio patrimonio e la propria reputazione. Ora sarà importante portare i cittadini a usare questo strumento, per renderlo il più possibile democratico e diffuso.