• Aprile 12, 2023
  • s.turati
  • 0

di Alessandra Schofield

Nei giorni scorsi ha avuto grande risonanza la lettera aperta – che è al contempo una petizione – scritta e sottoscritta dagli esponenti di vertice dei maggiori Big Tech che chiede una pausa nello sviluppo e nell’addestramento dei sistemi di Intelligenza Artificiale.

Fa riflettere il fatto che l’allarme provenga proprio da chi sviluppa tecnologie, strumenti e prodotti basati sulla IA. Tra i primi firmatari troviamo infatti Elon Musk, è a firma di Google, Microsoft, Amazon – per citarne solo alcuni – oltre che una miriade di esperti, scienziati e tecnici del settore.

Secondo i promotori della petizione diretta a tutti i soggetti che sviluppano sistemi analoghi – per fare un esempio – alla ChatGPT di OpenAI di cui tanto si sta parlando, l’Intelligenza Artificiale in grado di porsi in competizione per capacità con gli esseri umani può rappresentare un grosso rischio per la società e l’umanità.

Il pericolo, come sempre, non risiede nello strumento ma nell’utilizzo che ne viene fatto.

Denunciano infatti i grandi del tech che il livello attuale di progettazione e gestione di questo tipo di IA non è assolutamente adeguato in termini di attenzione. “I lab IA – leggiamo nella lettera – sono da mesi incastrati in una gara fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno – neppure i loro creatori – possono comprendere, prevedere o controllare.
Se mal pensati e mal condotti, gli attuali sistemi IA potrebbero diffondere propaganda e menzogna in tutti i canali di informazione, i lavori verrebbero automatizzati, gli esseri umani potrebbero essere resi obsoleti e sostituiti da menti non-umane più imponenti per numero e per astuzia, con il rischio di perdere il controllo sulla nostra civiltà.  “Sistemi potenti di Intelligenza Artificiale dovrebbero essere sviluppati solo una volta che si sia certi che i loro effetti saranno positivi ed i loro rischi gestibili. Questa certezza deve essere ben fondata e deve aumentare proporzionalmente all’entità degli effetti potenziali del sistema” ammoniscono i sottoscrittori della lettera.
Perciò la richiesta a tutti i cosddetti lab AI è di sospendere immediatamente e per almeno 6 mesi l’addestramento dei sistemi AI più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile, ed includere tutti gli attori chiave. Qualora tale sospensione non possa essere attivata velocemente, i governi dovrebbero intervenire ed istituire una moratoria.
In questo periodo di fermo, lab AI ed esperti indipendenti dovrebbero sviluppare ed implementare congiuntamente un seti di protocolli di sicurezza condivisi per il design e lo sviluppo dell’Intelligenza Artificiale avanzata, che siano rigorosamente controllati e revisionati da esperti terzi. Questi protocolli dovrebbero garantire che i sistemi aderenti sono sicuri oltre ogni ragionevole dubbio.
È indispensabile rifocalizzarsi su accuratezza, sicurezza, interpretabilità, trasparenza, solidità, allineamento, affidabilità e lealtà degli attuali sistemi, prima di procedere a svilupparne altri.
Allo stesso tempo, i Big Tech invocano un maggiore controllo. Gli sviluppatori di Intelligenza Artificiale devono lavorare con i regolatori per accelerare fortemente lo sviluppo di robusti sistemi di governance dell’Intelligenza Artificiale, istituendo Autorità di Vigilanza dedicate, sistemi di  supervisione robusti, metodi certi per aiutare a distinguere il reale dal sintetico e prevenire danni ed errori, un solido ecosistema di audit e certificazione. Bisogna introdurre la responsabilità per i danni causati dall’IA, destinare ingenti finanziamenti pubblici nella ricerca tecnica per la sicurezza AI e predisporre risorse capienti per far fronte alle drammatiche trasformazioni radicali economiche e politiche (soprattutto a carico della democrazia) che l’Intelligenza Artificiale provocherà.
Se tutto ciò non verrà messo in campo, anziché godere tutti dei benefici che una tecnologia sempre più avanzata come questa può portare al mondo, si precipiterà verso il disastro.

Informazioni da inserire nel pop up sito ISCRIZIONE RUI

 

M.A.C. – Alberti Minini Rubagotti S.r.l.
P.IVA 03662810989
Numero iscrizione RUI: A000510015
Data di iscrizione: 14 gennaio 2015
Codice amministrativo assegnato all’agenzia: 64176
info@mac-assicurazioni.it
PEC: m.a.c.albertimininirubagotti@legalmail.it

Sede di Brescia
Via IV Novembre 1 – 25122 Brescia (BS)
Tel.: 030 377 0283
Fax: 030 293148
Responsabile intermediazione sede di Brescia
Paola Minini
PEC:paolaminini@legalmail.it

Sede di Desenzano del Garda
Viale Marconi, 104 – 25105 Desenzano del Garda (BS)
Tel.:030 9142361
Fax:030 9141730
Responsabile intermediazione sede di Desenzano del Garda
Cherubini Emanuele
PEC:emanuele.cherubini@legalmail.it

Sede di Chiari
Via Maffoni, 21 – 25032 Chiari (BS)
Tel.:030 711321
Fax:030 7101766
Responsabile intermediazione sede di Chiari
Rubagotti Giorgio
PEC:giorgio.rubgotti@legalmail.it

Responsabili dell’attività di intermediazione

MININI PAOLA 

Responsabile intermediazione sede di Brescia

Numero Iscrizione A000084737

PEC:paolaminini@legalmail.it

 

RUBAGOTTI GIORGIO 

Numero Iscrizione A00005562

PEC:giorgio.rubgotti@legalmail.it

 

ALBERTI DAVIDE FRANCESCO 

Numero Iscrizione A000701752

PEC:albertidavidefrancesco@legalmail.it

 

CHERUBINI EMANUELE 

Numero Iscrizione A000002726

PEC:emanuele.cherubini@legalmail.it

 

RUBAGOTTI GIORGIO 

Numero Iscrizione A000055629

PEC:giorgio.rubgotti@legalmail.it

 

E’ possibile consultare gli estremi delle iscrizioni al RUI al seguente indirizzo https://servizi.ivass.it/RuirPubblica/

UNIPOLSAI Assicurazioni SpA

Sede legale:

Via Stalingrado, 45 – 40128 Bologna (BO)

Tel. 0515077111

Fax 0517096584

Posta PEC: unipolsaiassicurazioni@pec.unipol.it