Skip to main content

UE,l’AI Act scende in campo per regolare l’intelligenza artificiale

2 Aprile 2024

L’intelligenza artificiale è un tema particolarmente complesso per la sua definizione; in Europa ci sono stati molti dibattiti proprio per cercare di darne una definizione ed un perimetro certo sia dal punto di vista tecnico, economico e operativo, sia da un punto di vista etico e sociale.

Qualcuno ancora pensa che l’intelligenza artificiale sia un’applicazione sul telefonino che fa una qualcosa di particolare più o meno utile, quando in realtà è una infrastruttura ed una tecnologia abilitante che include, grosso modo, le seguenti tecnologie: il machine learning, cioè una sistema di “apprendimento automatico”, che consente un  miglioramento delle capacità elaborative di un sistema attraverso una fase di addestramento, Il Natural Language processing (NLP), cioè tutti i sistemi che comprendono, interpretano e generano il linguaggio umano, il Ragionamento Logico o inferenziale che è una struttura all’avanguardia che permette di creare nuova conoscenza attraverso la deduzione dall’analisi di grandi quantità di dati, i cosiddetti big data, la Computer Vision, quindi tecniche e sistemi di analisi di immagini e video che per esempio estraggono informazioni sensibili da contenuti visivi.

Più in là, come evoluzione, c’è l’Artificial General Intelligence (AGI), ancora agli albori, il cui sistema principale è Liama 3, cioè il sistema di AGI di Meta (holding di Facebook e Instagram) che è un sistema di AI superiore, più avanzato, con uno scopo più generale.

Più in generale i sistemi di AI si dividono in Narrow AI e General Purpose AI (GPAI); quindi le AI possono avere uno scopo, un obiettivo, più stretto, cioè fanno specificamente una cosa, oppure ci sono i tool GPAI come ChatGPT o come Bard di Google, oggi si chiama Gemini, che hanno invece uno scopo più ampio e quindi riescono a prendere più domini di applicazione.

Diciamo quindi che sulla definizione di AI c’è stato un grande lavoro e oggi sull’ AI Act Europeo si parte dalla definizione dell’OCSE che più o meno è questa, ovvero:

“si considera l’intelligenza artificiale come un insieme di tecniche e approcci informatici che consentono a un sistema di svolgere compiti complessi in modo autonomo o semi-autonomo, apprendendo, adattandosi e prendendo decisioni basate su grandi quantità di dati e informazioni”.

Quindi la qualità e la quantità di dati sono alla base dei sistemi di AI.

Se poi consideriamo i tempi di diffusione di questi sistemi, si riscontrano dati che non si erano mai visti prima: Quanto tempo ci hanno messo questi sistemi per raggiungere un milione di user? ChatGPT ci ha impiegato appena cinque giorni, Instagram oltre un mese, Facebook 400 giorni e Twitter quasi 800. Stiamo quindi parlando di un cambiamento certamente epocale.

È indubbio che i sistemi basati su AI hanno un potenziale sicuramente gigantesco, ma c’è un tema, che abbiamo già trattato in passato, di rischio per il mercato del lavoro ed è questo il motivo per cui tale rischio sarà uno dei temi principali del G7. Per approfondire questo tema si legga il rapporto di CEDEFOP che fa vedere quanta parte della forza lavoro di ciascuna categoria è a rischio sostituzione da parte di questi strumenti, che di fatto sono strumenti di automazione.

Altra questione con forte impatto sull’efficienza della AI Generativa è la cosiddetta “Instrumental Convergence”, cioè la capacità di ottenere tramite AI esattamente il risultato che si è richiesto. E non è cosa da poco se si pensa ad applicazioni in ambito sanitario o anche solamente alla guida autonoma.

I sistemi di AI generativa si stanno molto concentrando sulle questioni creative; quindi, sulla creazione di video e contenuti creativi e meno invece sull’automazione di processi che magari sono meno richiesti o che piacciono meno alle persone.

In tale ambito l’Europa sta provando a giocare un ruolo primario, in particolare con Mistral AI, un nuovo tool interamente francese, anche se in realtà il team di ingegneri che lo sta progettando proviene anche dalle big tech e da tutto il mondo. Mistral AI è un software di Natural Language Processing, quindi come ChatGPT e vale oggi due miliardi di euro; stiamo quindi parlando di cifre astronomiche, anche solo per una startup europea.

Questo ci porta alla domanda: quanto vale questo mercato? ce lo dice McKinsey, che indica in circa 15 trilioni di dollari il mercato nei prossimi 5 anni, un mercato in piena evoluzione.

Questi sono dati a fine 2023, ma già assolutamente indicativi e impressionanti. ChatCPT da solo vale quasi 15 miliardi e 60% del mercato.

EU Artificial Intelligence Act

Ai primi di marzo al Parlamento Europeo è stato votato e approvato con una stragrande maggioranza l’Artificial Intelligence Act.

Vediamo che cos’è, a cosa serve e perché è importante.

Innanzi tutto, dobbiamo notare come l’UE sia la prima al mondo in assoluto ad aver votato un atto così concreto sulla Intelligenza Artificiale e questo ha grande importanza per vari motivi.

Il primo è ovviamente garantire la sicurezza, la trasparenza, la responsabilità nell’utilizzo di questa nuova tecnologia, ma anche dare un contorno normativo chiaro per evitare che startup si mettano ad investire in sistemi che poi non rientrano in questo framework normativo risultando inapplicabili nel mercato; c’è stata quindi grande fretta nel cercare di dare una cornice normativa per dare la possibilità di sviluppare delle nuove soluzioni al suo interno, consentendo quindi alle startup di investire consapevolmente in questo mercato che, come abbiamo detto, ha proporzioni inaudite. Ciò si otterrà anche tramite la creazione di sandbox normative, cioè un ambiente controllato dove operatori del settore possono testare, per un periodo di tempo limitato, prodotti e servizi tecnologicamente innovativi. In pratica aree dove vengono derogate alcune regole per fare sì da permettere l’innovazione e gli investimenti. L’AI Act ha grande sensibilità verso Il funzionamento delle sandbox normative, delegate poi ai singoli stati membri.

Riassumiamo quindi di seguito i punti per i quali l’AI Act è importante:

  1. Stabilire un sistema di analisi basato sui rischi innati dei sistemi di AI
  2. Garantire la sicurezza, la trasparenza e la responsabilità nell’utilizzo dell’IA.
  3. Promuovere l’innovazione (dando cornici normative chiare e con l’utilizzo, ad esempio, di sandbox regolamentari)
  4. Anticipare in UE, come spesso accade, norme e regolamenti poi applicati o replicati in molti altri paesi del mondo (es. cavo di ricarica usb-c per i-phone)
  5. Per la costituzione dell’AI Office

L’AI Act è una iniziativa, orientata a sviluppare un sistema di valutazione basato sui rischi innati di questi sistemi di AI.

Questa è una decisione tutt’altro che scontata, cioè non si decide di valutare l’AI in base alla propria applicazione o valutare il proprio utilizzo in base all’intenzione caso per caso, ma si riconoscono dentro i sistemi di AI alcuni rischi innati, talvolta inaccettabili.

Per fare questa valutazione del rischio viene costituito l’AI Office, che ha l’obiettivo anche di realizzare un’analisi costante e continua del rischio relativo a queste nuove soluzioni, allo stato attuale e nella loro evoluzione, per creare dei meccanismi di risk assessment da proporre al Parlamento europeo.

L’AI Act utilizza la logica Product Safety Legislation, cioè definisce le informazioni di base e i rischi di base, dandone delle definizioni, per poi delegare alla regolamentazione tecnica nazionale la definizione di dettaglio; in Italia se ne sta occupando un rappresentante del CINI.

Classificazione dei rischi della AI

In pratica è stata definita una piramide del rischio delle soluzioni di AI. È una piramide perché alla base ci sono i rischi minimi o rischi limitati, che sono la stragrande maggioranza delle soluzioni di AI. Quindi, per esempio, le soluzioni AI nella produzione di manifatturiero oppure nei processi di fabbricazione, dentro le fabbriche, sono a rischio minimo o limitato e quindi hanno praticamente pochissime restrizioni.

Rischio minimo non ha restrizioni, mentre rischio limitato ha delle piccole regolamentazioni, per esempio di trasparenza e di rendicontazione sulla destinazione dei dati.

Al vertice della piramide i rischi inaccettabili, pochi ma molto importanti. Le applicazioni a rischio inaccettabile vengono proibite. In breve, la classificazione dei sistemi di AI:

Rischio INACCETTABILE

Sistemi di punteggio di affidabilità sociale: utilizzati per classificare le persone in base alla loro affidabilità, ad esempio per l’accesso al credito o al lavoro. Questo è il cosiddetto social scoring non ammesso in sede europea, diversamente da come accade per es. in Cina dove esiste un lungo elenco di sistemi di social scoring, cioè di sistemi di analisi dei big data per assegnare dei punteggi ai propri cittadini in termini di affidabilità sociale e politica. Questo è assolutamente proibito dall’AI Act.

Tecnologie di riconoscimento facciale in tempo reale: utilizzate per la sorveglianza di massa, ad esempio per identificare le persone in una folla. Queste sono le applicazioni AI finalizzate alla detection delle emozioni, per esempio capire per lo stato d’animo di una persona dai movimenti facciali e quelle per identificare le persone che vanno alle manifestazioni o fanno parte di grandi folle. Esistono però ovviamente delle deroghe in quest’ultimo caso relative ai sistemi della Polizia. Qui si parla solo di conoscimento biometrico delle masse, perché quello per esempio relativo all’accesso agli edifici è ancora considerato a rischio alto, non rischio inaccettabile.

Armi autonome letali: sistemi d’arma che possono selezionare e colpire bersagli senza l’intervento umano. Ovviamente sono proibite le armi autonome letali, che non hanno bisogno di assistenza umana per colpire

Tecnologie manipolatorie, in particolar modo se sfruttano condizioni di vulnerabilità come disabilità o anzianità. Infine, sono vietate le tecnologie manipolatorie, che comprendono tantissime definizioni, raggruppabili grossomodo nelle macroaree di sistemi che sfruttano condizioni di disabilità. Ad esempio, basti pensare a persone in condizioni di fragilità (es. disabili e/o anziani) che interagiscono o sono messe a contatto con un sistema di assistente vocale come quello di ChatGPT, che ha una capacità impressionante di convincere le persone a fare cose  contro la propria volontà.

Rischio ALTO

Per tutti i sistemi a rischio alto, invece, vengono stabiliti dall’AI Act tutta una serie di processi di risk assesment, di rendicontazione, di trasparenza.

Sistemi per la guida autonoma

Il sistema più ovvio è la guida autonoma per la quale ci sono una serie di normative da rispettare per fare si che le macchine per strada non creino incidenti o peggio investono i pedoni.

Sistemi di riconoscimento biometrico

Il riconoscimento biometrico, in tutti i suoi casi, viene considerato particolarmente problematico. Tali sistemi sono utilizzati per identificare le persone in base alle loro caratteristiche fisiche, ad esempio per l’accesso a edifici.

Sistemi di analisi del credito

Ovviamente questi sistemi sono la business line principale delle banche che li utilizzeranno per avere delle informazioni sui loro futuri debitori. Tali sistemi sono utilizzati per valutare la solvibilità dei mutuatari, ad esempio per l’erogazione di prestiti. L’obiettivo dell’AI Act è quello di normare più possibile questi sistemi, con regole stringenti, per evitare fenomeni di “social scoring”, cosa che invece accade già oggi nelle banche USA.

Sistemi di intelligenza artificiale utilizzati nella sanità

Sistemi basati su AI utilizzati per la diagnosi di malattie o per la raccomandazione dei trattamenti medico-sanitari. Anche qui grande attenzione: sebbene la letteratura scientifica riporti studi che mostrano che nel caso del tumore ai polmoni i sistemi di AI hanno un’affidabilità maggiore rispetto a quella dei medici, va da sé però, che non si possono lasciare questi sistemi prendere decisioni senza il controllo del personale sanitario specializzato. I sistemi basati su AI nella sanità saranno sicuramente il futuro, ma non possiamo delegare loro completamente una materia così sensibile; quindi, l’AI Act impone su di essi tutta una serie di paletti sull’utilizzo.

Tempistiche e sanzioni

L’AI Act avrà un’implementazione graduale anche se si cercherà di accelerare sui sistemi a rischio inaccettabile e quindi:

  • 6 mesi per i sistemi a rischio inaccettabile, con sanzioni che arrivano fino al 7% del fatturato, quindi particolarmente severe.
  • 12 mesi per i modelli GPAI (General Purpose AI), che oggi sono solamente ChatGPT e Gemini di Google, quindi quelli con ampio spettro di applicabilità.
  • 24/36 mesi per la creazione di sistemi di risk assessment e delle autorità nazionali per la valutazione di questo rischio alto di questi sistemi.

Con l’AI Act si aprono quindi ufficialmente le porte del mercato europeo ad aziende e startup che potranno sviluppare sistemi di AI in un contesto normativo che servirà anche a preservare i loro investimenti oltre che a trasformare in obblighi di legge i meccanismi di mitigazione di rischi per i diritti fondamentali nell’uso dell’intelligenza artificiale. Con queste norme l’Europa si pone come comunità all’avanguardia nell’innovazione, proponendo al mondo un modello di sviluppo dell’intelligenza artificiale centrato sulla tutela della creatività, del lavoro e del cittadino. Un grande esempio di civiltà.

La Redazione di Open Gate

Condividi questo articolo: