di Alessandra Schofield

L’AI Act è entrato in vigore Un buon punto di partenza. Avete presente il film Minority Report?La storia si basa sul sistema Precrime, un’Intelligenza Artificiale predittiva che analizza enormi quantità di dati per identificare individui che potrebbero commettere crimini prima che lo facciano davvero. Nel film sono presenti inoltre sistemi di riconoscimento biometrico remoto che identificano le persone negli spazi pubblici attraverso scanner oculari. Steven Spielberg non solo si è riconfermato un regista geniale, ma anche molto lungimirante (dato che il film è uscito nel 2002, oltre vent’anni fa).

Il 2 febbraio 2025 è entrato il vigore l’AI Act, il Regolamento europeo finalizzato a normare lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso di sistemi di Intelligenza Artificiale nell’Unione Europea. L’obiettivo è garantire la sicurezza, la tutela dei diritti fondamentali e il rispetto dei valori dell’UE anche in questo delicato contesto.
Il Regolamento sull’Intelligenza Artificiale distingue i rischi in quattro livelli di pericolosità per la sicurezza e i diritti fondamentali: inaccettabile, ad alto rischio, a rischio limitato e a rischio minimo.  I sistemi a rischio inaccettabile sono vietati, in quanto potenzialmente dannosi in maniera significativa per le persone o la società. Rientrano in questa categoria i sistemi progettati per manipolare il comportamento umano in modo subliminale, inducendo scelte senza che l’utente ne sia consapevole, come potrebbe accadere con strumenti che modificano la percezione visiva o uditiva per spingere un individuo a compiere determinate azioni. Sono vietati anche i sistemi che sfruttano vulnerabilità legate all’età o alla condizione psicofisica, ad esempio un chatbot che induce minori o persone fragili a compiere acquisti inconsapevoli. Il regolamento proibisce inoltre il punteggio sociale, che consiste nella classificazione delle persone sulla base del loro comportamento o delle loro caratteristiche personali, come un sistema che penalizzi un individuo nell’accesso ai servizi pubblici a causa di valutazioni pregresse. Allo stesso modo, sono vietati i sistemi di identificazione biometrica remota in tempo reale in spazi pubblici, salvo specifiche eccezioni per le forze dell’ordine, per evitare forme di sorveglianza di massa non proporzionate.
I sistemi ad alto rischio possono avere un impatto significativo su diritti fondamentali o sulla sicurezza. Non sono vietati in assoluto, ma richiedono una vigilanza stringente perché questa categoria comprende applicazioni in settori come la sanità, dove un algoritmo utilizzato per diagnosticare patologie deve essere sottoposto a rigorosi controlli per evitare errori potenzialmente letali, o il settore del lavoro, in cui un sistema automatizzato di selezione del personale potrebbe generare discriminazioni basate su dati distorti. Anche i sistemi utilizzati per il credito rientrano in questa categoria, poiché una decisione algoritmica potrebbe influenzare l’accesso a prestiti o mutui, rendendo necessario un elevato livello di trasparenza. La supervisione umana, nei sistemi di intelligenza artificiale ad alto rischio è un elemento essenziale e obbligatorio. Il Regolamento stabilisce che questi sistemi devono essere progettati in modo da permettere agli operatori di monitorarne il funzionamento, comprenderne le decisioni e intervenire quando necessario, così da assicurare che l’IA rimanga sotto il controllo delle persone e non operi in modo incontrollato.
I sistemi a rischio limitato devono garantire trasparenza. Un esempio tipico è rappresentato dai chatbot conversazionali, che devono informare chiaramente le persone del fatto che stanno interagendo con un’intelligenza artificiale e non con un operatore umano. Allo stesso modo, i sistemi di generazione di immagini o video sintetici, come i deepfake, devono indicare esplicitamente la natura artificiale del contenuto, per evitare il rischio di disinformazione.
I sistemi a rischio minimo comprendono la maggior parte delle applicazioni quotidiane, come gli assistenti vocali, i software di traduzione o gli algoritmi di suggerimento per la visione di contenuti multimediali. Per queste tecnologie il Regolamento non prevede obblighi specifici, ma incoraggia l’adozione di pratiche responsabili, promuovendo lo sviluppo di strumenti affidabili e rispettosi dei principi etici. 

Il Regolamento rappresenta dunque un tentativo concreto di vigilare e tutelare in un mondo che evolve più velocemente della nostra capacità di comprenderlo. È rassicurante sapere che, almeno in Europa, si stanno fissando dei paletti per impedire che l’IA diventi uno strumento di discriminazione, manipolazione o sorveglianza indiscriminata. Il fatto che sistemi di selezione del personale, di diagnosi medica o di concessione di crediti debbano rispettare criteri di trasparenza e supervisione umana significa che, in teoria, ci sarà meno spazio per decisioni arbitrarie e più tutela per chi ne subisce le conseguenze. Consideriamolo, però, un punto di partenza. Perché dobbiamo ricordare che la sicurezza reale dipende da come queste norme verranno applicate e da quanto le aziende e le istituzioni saranno disposte a rispettarle. Il divieto di riconoscimento facciale nei luoghi pubblici, ad esempio, è una garanzia per la nostra privacy. Ma la possibilità di deroghe per le Forze dell’Ordine, per esempio, ha già suscitato non poca incertezza. La vera sfida sarà mantenere questa sicurezza nel tempo, far sì che la tutela vada di pari passo con l’evoluzione tecnologica, affinché siano gli strumenti ad essere al servizio delle persone, e non il contrario.

Informazioni da inserire nel pop up sito ISCRIZIONE RUI

 

M.A.C. – Alberti Minini Rubagotti S.r.l.
P.IVA 03662810989
Numero iscrizione RUI: A000510015
Data di iscrizione: 14 gennaio 2015
Codice amministrativo assegnato all’agenzia: 64176
info@mac-assicurazioni.it
PEC: m.a.c.albertimininirubagotti@legalmail.it

Sede di Brescia
Via IV Novembre 1 – 25122 Brescia (BS)
Tel.: 030 377 0283
Fax: 030 293148
Responsabile intermediazione sede di Brescia
Paola Minini
PEC:paolaminini@legalmail.it

Sede di Desenzano del Garda
Viale Marconi, 104 – 25105 Desenzano del Garda (BS)
Tel.:030 9142361
Fax:030 9141730
Responsabile intermediazione sede di Desenzano del Garda
Cherubini Emanuele
PEC:emanuele.cherubini@legalmail.it

Sede di Chiari
Via Maffoni, 21 – 25032 Chiari (BS)
Tel.:030 711321
Fax:030 7101766
Responsabile intermediazione sede di Chiari
Rubagotti Giorgio
PEC:giorgio.rubgotti@legalmail.it

Responsabili dell’attività di intermediazione

MININI PAOLA 

Responsabile intermediazione sede di Brescia

Numero Iscrizione A000084737

PEC:paolaminini@legalmail.it

 

RUBAGOTTI GIORGIO 

Numero Iscrizione A00005562

PEC:giorgio.rubgotti@legalmail.it

 

ALBERTI DAVIDE FRANCESCO 

Numero Iscrizione A000701752

PEC:albertidavidefrancesco@legalmail.it

 

CHERUBINI EMANUELE 

Numero Iscrizione A000002726

PEC:emanuele.cherubini@legalmail.it

 

RUBAGOTTI GIORGIO 

Numero Iscrizione A000055629

PEC:giorgio.rubgotti@legalmail.it

 

E’ possibile consultare gli estremi delle iscrizioni al RUI al seguente indirizzo https://servizi.ivass.it/RuirPubblica/

UNIPOLSAI Assicurazioni SpA

Sede legale:

Via Stalingrado, 45 – 40128 Bologna (BO)

Tel. 0515077111

Fax 0517096584

Posta PEC: unipolsaiassicurazioni@pec.unipol.it