Archivio opinioni
Emma Evangelista
Direttore Microfinanza
AI ACT: i confini dell’Intelligenza artificiale nell’UE
un regolamento che offre nuove prospettive per le PMI sotto il segno della sostenibilità
Le Tre leggi della robotica scritte da Isaac Asimov.
1. Un robot non può recar danno a un essere umano né può permettere che,
a causa del suo mancato intervento, un essere umano riceva danno.
2. Un robot deve obbedire agli ordini impartiti dagli esseri umani,
purché tali ordini non vadano in contrasto alla Prima Legge.
3. Un robot deve proteggere la propria esistenza, purché la salvaguardia
di essa non contrasti con la Prima o con la Seconda Legge.
Abstract
L’uso degli strumenti basati su intelligenza artificiale è il punto di svolta della nuova rivoluzione industriale del xxi secolo e pone le basi di una nuova era che vede l’interazione uomo macchina confrontarsi su piani paralleli che pongono questioni etiche sulla capacità predittiva e operativa delle macchine. Se da un lato le previsioni meno ottimistiche stimano una crescita della disoccupazione a causa dell’uso dell’IA, dall’alto esiste la possibilità di raddoppiare lo sviluppo delle imprese e aggredire nuovi mercati. Con il nuovo regolamento comunitario chiamato AI ACT per la prima volta sono stati delimitati i confini per l’uso dell’intelligenza artificiale sottolineando il primato dell’uomo e delle sue capacità sulle scelte e sulle macchine e valorizzando le risorse tecnologiche per un progresso che sia sostenibile per l’uomo. Una sezione importante è dedicata allo sviluppo delle piccole e medie imprese che possono accrescere le proprie potenzialità grazie all’utilizzo dell’ai. Nel testo di legge vengono definiti accuratamente tipologie di intervento, di rischio e i relativi confini con veti nell’utilizzo in area UE. In un mondo in rapida evoluzione dove il virtuale si sovrappone ma non deve sostituire il reale e dove il discernimento e la scelta non possono essere affidate solo ad un algoritmo, gli scenari che tornano alla mente sono quelli proposti già nel secolo scorso da scienziati e scrittori di fantascienza come Asimov e Dick che preconizzavano mondi di androidi umanoidi che avrebbero sostituito l’uomo in tutta la sua complessità. L’Europa mette in fila le regole con l’AI ACT.
1. Introduzione
L’intelligenza artificiale generativa è una realtà che pervade la vita quotidiana anche se inconsapevolmente poiché applicata già da tempo a tante funzioni a cui deleghiamo piccole e grandi operazioni ed attività: dai software che gestiscono gli strumenti di uso domestico come i robot che raccolgono la polvere in casa, ai software che modificano le foto con i ‘filtri di bellezza’, sino ai più complessi sistemi come ChatGPT4 che ci aiutano a comporre testi in lingua madre, ormai più o meno consapevolmente deleghiamo una gamma di servizi e attività a questi algoritmi ‘intelligenti’ che ci consigliano anche soluzioni alternative. Se il futuribile negli anni ‘80 era una casa interamente domotica, oggi il desiderio di un robot che supplisca alle funzioni umane interpretando le necessità e adattandosi alle nostre richieste per la gestione delle mansioni casalinghe è dietro l’angolo, così come la gestione delle reti e delle infrastrutture critiche che potrebbero essere interamente gestite da un software: macchine e aerei a pilotaggio remoto o autonomo, snodi ferroviari, metropolitane, dighe e centrali nucleari. La prospettiva di affidare la gestione efficiente a macchine intelligenti alletta e spaventa allo stesso tempo creando anche questioni di etica rilevamenti specie nell’utilizzo di strumentazioni impiegate per la identificazione degli individui e l’uso per attività militari. Dunque per arginare i predicibili abusi di una tecnologia sempre più evoluta e rapida nel cambiamento si sono poste le basi per una regolamentazione sull’impiego dell’intelligenza artificiale generativa. Per la prima volta nell’ambito dello spazio europeo si è intesa la necessità di creare una legislazione ad hoc per limitare l’utilizzo dell’intelligenza generativa a scopi di sostegno e progresso dell’umanità e dell’impresa ponendo l’accento sulla salvaguardia dei diritti e della privacy dei cittadini comunitari. Il 21 maggio 2021 il Consiglio d’Europa ha emanato quella che viene definita la prima legge sull’intelligenza artificiale ossia l’AI ACT. Il regolamento entrerà in vigore a due anni dalla pubblicazione, quindi sarà pienamente operativo nei Paesi UE da maggio 2026.
2. Asimov, le tre leggi della robotica e i principi base dell’AI ACT
Era il 1940 quando Isaac Asimov elenca le tre leggi della robotica con cui si fondano le basi della scrittura fantascientifica che in quegli anni preconizza (a partire dal famigerato ‘Io robot‘ dato alle stampe nel 1950) un mondo in cui l’intelligenza artificiale e la robotica interagiscono con il genere umano nella quotidianità.
A distanza di 74 anni il Consiglio d’Europa ha approvato (il 21 Maggio scorso ndr) l’Artificial Intelligent Act, ossia la cosiddetta legge che disciplina l’utilizzo dell’intelligenza artificiale con due particolari riserve: la prima riguardante l’approccio basato sul rischio, ossia la propensione a causare danni alla società e il secondo relativo alla sostenibilità per l’implementazione della cosiddetta AI-generativa a vantaggio delle aziende che aderiscono ai criteri ESG e di sviluppo.
Se negli anni Quaranta del secolo scorso Asimov preconizzava, in una lunga intervista rilasciata a Pat Stone per la rivista “Mother Earth News” , i confini di un’attività di sviluppo umano basata sulla scienza e sulla tecnologia come rapporto di interazione necessaria tra l’uomo e la macchina basata sul primato della conoscenza e del rispetto dell’uomo e delle risorse della terra, oggi queste teorie sono leggibili (più o meno consapevolmente) all’interno del Regolamento comunitario.
In un’intervista Asimov dichiarava: ”Penso che la fantascienza sia l’unica branca letteraria di rilievo che tratta di come gli esseri umani reagiscono ad ogni cambiamento significativo del livello di scienza e tecnologia nella società. E’ una letteratura che punta al cuore dei nostri tempi, perché mai come ora nella storia il nostro mondo sta cambiando velocemente. Inoltre chiunque oggi (1980) ha tra i quindici e trenta anni d’età è probabile che assisterà ai cambiamenti radicali che si verificheranno nel corso del ventunesimo secolo, il mondo sarà completamente diverso allora! Potete obiettare che è una cosa piuttosto ovvia, ma non lo è affatto! In pochi capiscono che il cambiamento è inevitabile e che questo sopraggiungerà sempre più rapidamente man mano che il tempo scorre. Così diventa assolutamente necessario pensare al futuro quando prendiamo delle decisioni, per affrontare con forza e audacia le sfide che il nostro domani ci porta. Credo fermamente che al di fuori della fantascienza, nessun altro genere letterario abbia la forza di convincere la gente dell’inevitabilità dei cambiamenti. Quando qualcuno legge fantascienza, lui o lei per forza deve accettare che il futuro (almeno nel libro) sarà differente.… La fantascienza basa sempre le sue visioni del futuro su innovazioni scientifiche e tecnologiche. La ragione sta nel fatto che in realtà, nel corso della storia tutti gli altri cambiamenti sono stati insignificanti e irrilevanti…Io penso che la tecnologia può salvarci se usata correttamente ma non ne sono certo… ci sono problemi che si potrebbero rivelare insolubili anche per la scienza e la tecnologia. Ma se se questi strumenti falliscono nient’altro potrà avere successo”.
Le tre leggi di Asimov si sono tradotte e sono state interpretate dai giuristi e dagli scienziati europei in 113 articoli che compongono l’AI ACT con allegati e premesse che limitano e spiegano gli ambiti di applicazione, gli strumenti e i casi toccati da questa disciplina. 430 pagine di regole e interpretazioni oggi diventano la base per le imprese, le pubbliche amministrazioni e le istituzioni che operano in campo europeo e si accingono a essere parte di un sistema tecnologico sempre più complesso e dinamico.
3. la classificazione delle Intelligenze artificiali e dei rischi
Il Regolamento europeo classifica i diversi tipi di intelligenza artificiale in base ad una scala di rischi e ne delimitano l’uso a utenti specifici in caso di potenzialità di danno elevata, ad esempio restringe l’uso di alcune tecnologie solo a soggetti che possano dimostrare requisiti di trasparenza e obblighi che ne limitino l’uso in determinate aree. Esistono, poi, dei veri e propri veti che bandiscono dal mercato UE l’uso di intelligenza artifgiciale per la manipolazione cognitivo comportamentale e il punteggio sociale perché il loro rischio è ritenuto inaccettabile. La legge vieta inoltre l’uso dell’intelligenza artificiale per politiche predittive basate sulla profilazione e sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come razza, religione o orientamento sessuale, in perfetto accordo con le normative privacy e con le libertà inviolabili dei cittadini. Questo significa, ad esempio, che saranno banditi i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone. Dunque è preservata la realtà dall’ingerenza eccessiva di una predizione virtuale attuata dalle macchine, come invece avveniva nel futuro ipotizzato nei racconti di un altro padre del genere fantastico-scientico, Philip K Dick (Gli androidi sognano pecore elettriche?), da cui venne tratto il famigerato film “Blade Runner” in cui androidi umanoidi si sostituiscono e minacciano il genere umano. Ma Dick, prolifico quanto Asimov, ha ispirato serie tv oggi tra le più diffuse e seguite sulle piattaforme di streaming come i racconti Electric dreams o la serie Black Mirror che enfatizzano l’uso distopico della tecnologia e l’abuso dell’intelligenza artificiale per la sostituzione del genere umano con gli androidi. La prima regola della nuova legge europea, dunque, sostiene il primato del controllo umano sui sistemi e maggiore è il rischio di causare danni alla società, più rigidi saranno i protocolli da seguire per applicare i nuovi strumenti AI ed evitare distorsioni. Ad ogni buon conto l’eccezione ai rilevamenti biometrici per il riconoscimento dell’individuo è prevista per questioni di sicurezza ed è sostanzialmente limitata alle forze dell’ordine e a situazioni specifiche espressamente previste dalla legge. L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l’autorizzazione giudiziaria dovrà essere collegata a un reato. Tra i sistemi classificati ad alto rischio per la salute, la sicurezza i diritti fondamentali, l’ambiente, la democrazia e lo Stato di diritto, vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana. I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti. Particolare attenzione è dovuta, secondo il regolamento, all’uso di processi e software legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (come nell’ambito sanitario od economico legato al mondo bancario e finanziario), alcuni sistemi di contrasto e controllo dei flussi migratori e della gestione delle frontiere, ai casi inerenti attività giudiziarie e processi democratici (come nel caso di sistemi usati per influenzare le elezioni). Per questi sistemi occorre una particolare attenzione: già a febbraio 2023 ha suscitato scalpore la sentenza scritta dal giudice Colombiano, Juan Manuel Padilla, utilizzando ChatGpt4.0 (software di intelligenza artificiale generativa di OpenAI). Il Giudice intervistato ha sostenuto che il dispositivo di legge sarebbe stato scritto correttamente dal sistema e che comunque la sentenza emessa era stata valutata correttamente da lui confermando il primato e la necessità umana nella azione nonostante l’utilizzo dello strumento informatico. In questo caso molte sono le valutazioni possibili e tanti gli effetti di eco generati sulla stampa internazionale che pongono la questione dell’etica nell’uso dello strumento. La legge sull’IA affronta anche l’uso di modelli di intelligenza artificiale per scopi generali (GPAI). I modelli GPAI che non presentano rischi sistemici saranno soggetti ad alcuni requisiti limitati, ad esempio per quanto riguarda la trasparenza, ma quelli con rischi sistemici dovranno rispettare regole più severe.
I sistemi di IA per finalità generali e i modelli su cui si basano dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme UE sul diritto d’autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti. La GPAI, insomma, deve poter comprendere, apprendere e applicare l’intelligenza in un’ampia gamma di compiti, allo stesso modo in cui lo farebbe un essere umano. E soprattutto, deve essere capace di trasferire la conoscenza da un campo all’altro, imparando a fare anche cose per cui non è stata programmata o addestrata.
Esiste poi una particolare Intelligenza artificiale che viene definita ‘generativa’ ed è per così dire addestrata ad una azione circoscritta. Le intelligenze artificiali generative che abbiamo oggi riescono a raggiungere i loro risultati perché si basano su modelli di reti generative avversarie (le Gan) e i modelli di trasformazione. Possono generare testo, immagini, musica o altri tipi di dati (anche tipi di cose digitali che gli esseri umani non sono in grado di capire, tantomeno generare) ma la cosa importante è che il loro prodotto non è una copia esatta, anche se mantiene tuttavia una forte coerenza con le altre creazioni di quel tipo.
Oggi ci sono ChatGPT, Bard, Llama e decine di altri esempi. Ma hanno tutti un antenato comune. Infatti, il primo esempio di AI generativa (programmata con altri tipi di algoritmi) risale al 1966: è il chatbot Eliza scritto dal professore del Mit di Boston Joseph Weizenbaum.
A questo proposito il Regolamento europeo parla chiaro: le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali, l’esempio più eclatante sicuramente è la foto circolata in rete del Papa vestito come un omino Michelin, con il piumino bianco che ha spinto lo stesso pontefice ad intervenire sull’argomento durante la 58esima Giornata mondiale delle Comunicazioni sociali sul tema Intelligenza artificiale e sapienza del cuore: per una comunicazione pienamente umana: “è capitato anche a me di esserne oggetto”, riferendosi alle foto che lo ritraevano con un piumino bianco o in pose da supereroe,”I sistemi di intelligenza artificiale possono contribuire al processo di liberazione dall’ignoranza e facilitare lo scambio di informazioni tra popoli e generazioni diverse” ma al tempo stesso possono essere strumenti di “inquinamento cognitivo”.
4. Misure a sostegno dell’innovazione e delle PMI
Nella ricerca di nuovi mercati e soprattutto nella competizione di un mercato saturo dove la capacità di espansione è dettata anche dal quinto dominio, ossia il digitale, è fondamentale la regolamentazione prevista dal Consiglio UE con questo atto in perfetta sintonia con le regole del mercato comune e con gli obblighi di trasparenza e concorrenza. Le Piccole medie imprese su cui l’Europa confida per la ripresa il sostegno ad un’economia che deve far fronte ai mercati globalizzati delle nuove potenze brasiliane e cinesi, deve poter avere al suo interno un tessuto omogeneo che non venga lesionato da attività viziate da un uso incauto o un abuso di tecnologia, ma che al contempo sviluppi prodotti e software innovativi che possano garantirne elevate prestazioni. Nelle premesse del Regolamento sono esplicitate le linee guida per cui i Paesi dell’UE dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese sandbox), in modo che PMI e start-up possano sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.
Si rende pertanto necessario un quadro giuridico dell’Unione che istituisca regole armonizzate in materia di IA per promuovere lo sviluppo, l’uso e l’adozione dell’IA nel mercato interno, garantendo nel contempo un elevato livello di protezione degli interessi pubblici, quali la salute e la sicurezza e la protezione dei diritti fondamentali, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, come riconosciuti e tutelati dal diritto dell’Unione. Per conseguire tale obiettivo, è opportuno stabilire regole che disciplinino l’immissione sul mercato, la messa in servizio e l’uso di determinati sistemi di IA, garantendo in tal modo il buon funzionamento del mercato interno e consentendo a tali sistemi di beneficiare del principio della libera circolazione di beni e servizi. Tali norme dovrebbero essere chiare e solide nel tutelare i diritti fondamentali, sostenere nuove soluzioni innovative e consentire un ecosistema europeo di attori pubblici e privati che creino sistemi di IA in linea con i valori dell’Unione e sblocchino il potenziale della trasformazione digitale in tutte le regioni dell’Unione. Stabilendo tali regole nonché le misure a sostegno dell’innovazione, con particolare attenzione alle piccole e medie imprese (PMI), comprese le start-up. Il presente regolamento contribuisce all’obiettivo di promuovere l’approccio antropocentrico europeo all’IA ed essere un leader mondiale nello sviluppo di un’AI sicura, affidabile ed etica, come affermato dal Consiglio europeo5, e garantisce la tutela dei principi etici, come specificamente richiesto dal Parlamento Europeo.
L’interesse è quello di sostenere le imprese dell’area comune che oggi non in tutti gli Stati membri vantano una forte digitalizzazione. Le stime post pandemiche rivelano che la crisi ha generato una spinta fondamentale nella trasformazione digitale delle imprese colmando da un lato il gap con il mercato americano ma dall’altro accentuando le differenze tra le grandi e le piccole e medie imprese. Secondo le stime redatte nel rapporto BEI il 53% delle imprese dell’UE ha attuato misure per rafforzare la presenza digitale, come per esempio l’offerta di prodotti online. Secondo la relazione, la digitalizzazione delle imprese dipende da diversi fattori, quali un’infrastruttura digitale adeguata, una regolamentazione favorevole alla concorrenza e competenze nel mercato del lavoro. Tutto questo è naturalmente correlato alla disponibilità di investimento dell’impresa. Come emerge chiaramente dalla survey dell’Assintel Report 2023, per un’azienda su tre l’ostacolo principale è quello delle risorse economico-finanziarie, e per un altro terzo di aziende lo è invece la scarsa cultura e la mancanza di competenze digitali e di queste solo il 7% delle aziende ha messo in cantiere (o in progettazione) iniziative di AI, e si tratta soprattutto di grandi aziende.
In Italia per sostenere la digitalizzazione e la transizione delle PMI il governo ha predisposto una serie di aiuti economici sotto forma di bandi regionali reperibili sul sito incentivi.gov.it.
5. Conclusioni
l’AI Act è un regolamento che norma una processo di sviluppo tecnologico che si è sviluppato in quasi 15 anni e che prevede una rapidissima crescita nell’uso di nuove tecnologie che pongono questioni di tipo etico da un lato, ove il primato della conoscenza e della scelta restano all’intelligenza umana, e dall’altro, naturalmente, una corsa al profitto. Dal lato economico l’uso delle nuove intelligenze artificiali sarà dirimente, nel giro di un decennio, per lo sviluppo delle imprese e segnerà la differenza nell’accesso al mercato, alla quinta dimensione e alla concorrenza per la massimizzazione del profitto in un’area, quella comunitaria, che deve confrontarsi quotidianamente con potenze economiche (prime tra tutte Brasile, Cina e India) che corrono e producono a ritmi frenetici, costi bassissimi e sono già tecnologicamente più avanzate. Questo regolamento, che entrerà in vigore tra due anni, si propone di circoscrivere l’uso lecito dell’AI attraverso un sistema di norme e trasparenza che vietino l’abuso e la violazione dei principi e dei diritti dei cittadini comunitari in sintonia con i regolamenti di privacy e concorrenza già operativi senza dimenticare il supporto allo sviluppo delle piccole e medie imprese, motore economico dell’UE. Un regolamento innovativo e primo nel mondo a regolamentare la materia.
Linkografia per approfondire
https://blog.google/intl/it-it/google-presenta-ai-smart-report-intelligenza-artificiale-per-il-made-in-italy/
https://www.google.com/search?q=rapporto+uso+inteligencia+artificial&sca_esv=f7a1df2a53b528d6&ei=2dRmZqGHHquK9u8Pr9C-wAc&oq=rapporto+uso+inteeli&gs_lp=Egxnd3Mtd2l6LXNlcnAiFHJhcHBvcnRvIHVzbyBpbnRlZWxpKgIIATIHECEYoAEYCjIHECEYoAEYCkihJVCPB1jDE3ABeAGQAQCYAb4BoAGfB6oBAzMuNbgBAcgBAPgBAZgCCaAC2QfCAgoQABiwAxjWBBhHwgIGEAAYFhgewgIIEAAYgAQYogTCAgUQIRigAcICBRAhGJ8FwgIEECEYFZgDAIgGAZAGCJIHAzMuNqAHkik&sclient=gws-wiz-serp#ip=1
https://www.fonditalia.org/rapporto-ocse-sullintelligenza-artificiale-le-nuove-competenze-richieste-ai-lavoratori-e-il-ruolo-delle-parti-sociali/
https://documenti.camera.it/leg19/documentiAcquisiti/COM11/Audizioni/leg19.com11.Audizioni.Memoria.PUBBLICO.ideGes.31196.07-03-2024-16-11-12.863.pdf
https://www.assolombarda.it/centro-studi/gli-effetti-potenziali-dell2019intelligenza-artificiale-sull2019economia-secondo-goldman-sachs
https://www.esg360.it/esg-smart-data/intelligenza-artificiale-e-esg-quali-benefici/
https://www.agendadigitale.eu/cultura-digitale/unai-etica-e-responsabilita-di-tutti-le-basi-per-realizzarla/
https://data.consilium.europa.eu/doc/document/PE-24-2024-INIT/it/pdf
https://it.linkedin.com/pulse/unintervista-di-bill-moyers-ad-isaac-asimov-francesco-vissani
https://www.sulromanzo.it/video/isaac-asimov-il-video-originale-con-le-tre-leggi-della-robotica
https://temi.camera.it/leg19/post/OCD15_15075/il-consiglio-ue-approva-nuove-norme-sull-intelligenza-artificiale.html#:~:text=Il%20Consiglio%20dell’UE%20comunica,rischio%20di%20causare%20danni%20alla
https://www.isaacasimov.it/interviste.htm
https://www.isaacasimov.it/The_Plowboy_interview.pdf
https://www.agendadigitale.eu/industry-4-0/lia-leva-di-sviluppo-per-litalia-il-ruolo-delle-pmi-nel-post-ai-act/
https://it.wikipedia.org/wiki/Le_presenze_invisibili#Rapporto_di_minoranza
https://www.digitalworlditalia.it/digitalmanager/digital-transformation/digitalizzazione-un-rapporto-ue-fotografa-la-situazione-post-pandemia-157216
https://www.stateofmind.it/2020/12/recensione-the-social-dilemma/
#
NOTE
1 (Pat Stone, da “Mother Earth News” n.65 sett/ott 1980
#2 https://www.isaacasimov.it/The_Plowboy_interview.pdf
#3 https://www.ibs.it/androidi-sognano-pecore-elettriche-libro-philip-k-dick/e/9788804731474
#4 https://it.wikipedia.org/wiki/Episodi_di_Philip_K._Dick%27s_Electric_Dreams
#5 https://www.editorialedomani.it/giustizia/arriva-la-prima-sentenza-scritta-con-lausilio-di-chatgpt-jl2p5rvt
#6 https://www.wired.it/article/intelligenza-artificiale-generale-generativa-differenze/
#7 https://images.app.goo.gl/NL5KyAnxx2wmgf1e6
#8 https://www.agi.it/cronaca/news/2024-01-24/papa-bene-ia-ma-attenzione-a-deep-fake-anche-io-vittima-24988068/
#9 dal Regolamento AI-ACT nota relativa a Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate (2020/2012(INL)).
#10 https://www.eib.org/en/publications/20230112-digitalisation-in-europe-2022-2023
#11 https://www.assintel.it/osservatori-2/assintel-report/assintel-report-2023/