News & Media

Opinioni

Intelligenza artificiale: primo tentativo di regolamentazione dell’ordinamento interno. Le disposizioni penali nel Disegno di Legge governativo.

A poco tempo di distanza dall’approvazione dell’AI Act, il Regolamento europeo sull’Intelligenza Artificiale (di cui avevamo parlato nella precedente newsletter), il Governo italiano ha inteso anticiparne gli effetti proponendo l’adozione di una regolamentazione interna.  In data 23 aprile 2024 il Consiglio dei Ministri ha approvato il disegno di legge n. 1066AS per l’introduzione di nuove disposizioni normative e l’attribuzione di una delega al Governo in materia di intelligenza artificiale.

Il contenuto.

L’iniziativa legislativa governativa si pone in stretta continuità con il Regolamento Europeo. I punti di contatto sono molti, a cominciare dai principi generali e dalla definizione di “sistema di intelligenza artificiale“, accolti anche nella proposta normativa interna.

L’impostazione pratica appare, però, diversa. Mentre il regolamento europeo persegue lo sviluppo a monte di una IA affidabile per la sicurezza dell’uomo e la tutela dei diritti fondamentali e definisce gli standard di qualità, le caratteristiche e gli obblighi di verifica affinché siano implementati, da operatori pubblici e privati, sistemi di intelligenza artificiale conformi a tali obiettivi, il Disegno di legge governativo definisce una serie di disposizioni di settore volte a regolare l’utilizzo ex post dei sistemi di IA; si occupa in particolare di quei settori socio-economici molto sensibili dove tale impiego è maggiormente dibattuto, quali la sanità pubblica, il mondo del lavoro, la Pubblica Amministrazione, l’amministrazione della giustizia e le professioni intellettuali. Si legge, infatti, che la finalità è di promuovere “un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale” (art. 1 del DDL).

Le disposizioni penali.

La diversità di approccio è confermata anche dalla previsione nel DDL di alcune disposizioni penali, che, invece, non sono contemplate a livello europeo. Del resto, l’incentivazione dell’intelligenza artificiale porta con sé il rischio di utilizzi distorti e capaci di arrecare nocumento a beni giuridici rilevanti per l’ordinamento.

In quest’ottica, si prevede (art. 25 del DDL):

  • l’introduzione di una nuova fattispecie di reato all’ 612-quater c.p. che punisce le condotte di “illecita diffusione di contenuti generati o manipolati con sistema di intelligenza artificiale”. Di tale disposizione, al momento, vengono proposte due formulazioni alternative: i) la prima focalizzata sullo scopo, sotteso alla diffusione, di “arrecare nocumento a una persona”, per cui è prevista la reclusione da sei mesi a tre anni; ii) l’altra che valorizza il verificarsi di un danno ingiusto, a cui è ricollegata la più severa reclusione da uno a cinque anni. L’intento è chiaramente quello di contrastare il fenomeno del c.d. deep-fake, per cui già in una precedente proposta di legge (la n. 2986 del 2021) si era pensato di predisporre uno specifico presidio penale;
  • l’aggiunta all’ 171 della Legge sul diritto di autore (L. n. 633/1941) di una specifica previsione sanzionatoria diretta a punire chiunque, senza averne diritto, a qualsiasi scopo e in qualsiasi forma, “riproduce o estrae testo o dati da opere o altri materiali disponibili in rete o in banche dati in violazione degli articoli 70-ter e 70-quater, anche attraverso sistemi di intelligenza artificiale”. In proposito, va precisato che il DDL stabilisce che l’impiego dell’IA per riprodurre o estrarre opere o materiali è consentito nei limiti già fissati dagli artt. 70-ter e 70-quater della relativa Legge ai fini della tutela del diritto di autore (nuovo art. 70-septies);
  • l’introduzione di una nuova circostanza aggravante comune (art. 61, n. 11-decies c.p.), che comporta l’aumento della pena fino ad un terzo, per i reati commessi “mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato”; 
  • la previsione di circostanze aggravanti speciali per alcuni reati, se commessi con l’utilizzo di sistemi di intelligenza artificiale. L’aumento di pena in tal caso è ricollegato alla considerazione che, a prescindere dell’uso insidioso, l’IA ha una straordinaria capacità di propagazione dell’offesa. In particolare, le fattispecie delittuose cui è ricollegato l’aggravio sanzionatorio sono le seguenti: sostituzione di persona (art. 494 c.p.), rialzo e ribasso fraudolento di prezzi sul pubblico mercato o nelle borse di commercio (art. 501 c.p.), truffa (art. 640 c.p.), frode informatica (art. 640-ter c.p.), riciclaggio, reimpiego e autoriciclaggio (artt. 648-bis, 648-ter e 648-ter.1 c.p.), nonché l’aggiotaggio (art. 2637 c.p.) e la manipolazione di mercato (art. 185 T.U.F.).

In altre parole, l’intervento del diritto penale, che, nella precedente newsletter, si era prospettato come potenziale, con l’eventuale approvazione del DDL governativo diverrà effettivo.

L’impatto sulla responsabilità da reato degli enti e il Modello di Organizzazione e Gestione ai sensi del D.lgs. 231/01.

Nel Disegno di Legge approvato dal Governo non vi sono previsioni dirette in materia di responsabilità da reato degli enti ex D.lgs. 231/2001. È comunque pronosticabile un impatto concreto per gli enti che si avvalgono nello svolgimento della propria attività di sistemi di intelligenza artificiale e si siano dotati di modelli organizzativi per la prevenzione del rischio reato.

Molti dei reati sopra menzionati, per cui è stata prevista l’introduzione di aggravanti legate all’impiego di IA, rientrano tra i reati presupposto ai sensi del D.lgs. 231/2001; pertanto, una prima ricaduta sui Modelli di Organizzazione e Gestione – già in essere o che verranno adottati – è necessariamente connessa all’effettuazione di un nuovo risk assesment volto a verificare se l’attività dell’ente sia o meno (e con quale grado) attinta dallo specifico rischio reato.

D’altra parte, nell’ambito della delega conferita al Governo per l’adeguamento della normativa nazionale al Regolamento europeo (art. 22 del DDL) sono presenti dei criteri di delega che andranno a rafforzare ed ampliare il presidio penalistico contro gli usi distorti dell’IA. Per quanto di interesse per le imprese, invero, si segnala sin d’ora che potranno essere introdotte “una o più autonome fattispecie di reato, punite a titolo di dolo o di colpa, incentrate sulla omessa adozione o l’omesso adeguamento di misure di sicurezza per la produzione, la messa in circolazione e l’utilizzo professionale di sistemi di intelligenza artificiale”. Questa previsione anticipa una plausibile responsabilizzazione degli enti per quanto concerne il rispetto degli standard di qualità e sicurezza richiesti per i sistemi di IA.

In definitiva, anche alla luce del DDL in esame, si conferma l’opportunità per le imprese di adeguarsi anche in via preventiva ai doveri di controllo imposti a livello europeo rispetto all’utilizzo dei sistemi di intelligenza artificiale.

Il presente articolo ha il solo scopo di fornire aggiornamenti e informazioni di carattere generale. Non costituisce pertanto un parere legale né può in alcun modo considerarsi come sostitutiva di una consulenza legale specifica.
Per chiarimenti o informazioni potete contattare gli autori oppure il Vostro Professionista di riferimento all’interno dello Studio.

Massimiliano Belli, Of Counsel
E: m.belli@nmlex.it
T.: +39 02 6575181

Filippo Ragaiolo, Associate
E: f.ragaiolo@nmlex.it
T.: +39 02 6575181

Eleonora Borroni, Associate
E: e.borroni@nmlex.it
T.: +39 02 6575181

Pubblicato il:

Iscriviti alla newsletter

Copyright Nunziante Magrone Studio Legale Associato | P.IVA 06080161000 | Privacy policy | Cookie policy | Note legali |