Nuovi rischi: l’intelligenza artificiale è una minaccia?

L'attenzione sull'Intelligenza Artificiale è ai suoi massimi storici. Gli allarmi crescono, l'Europa emana la prima normativa al mondo
rischi intelligenza artificiale

A San Francisco, capitale della Silicon Valley, ha da poco visto la luce il CAIS – Center for AI Safety. La sua missione è ‘ridurre i rischi su scala sociale dell’Intelligenza Artificiale’.

Qualche irriducibile ottimista della prima ora tecnologica potrebbe pensare che si tratti di un’iniziativa luddista, resistente al progresso tecnologico, invece no. E’ sostenuta da grandi nomi della comunità e imprenditoria tech, università, le stesse aziende che stanno sviluppando l’intelligenza artificiale.

Il 30 maggio 2023, il CAIS ha rilasciato una dichiarazione firmata da una coalizione di oltre 350 esperti di IA, insieme a professori universitari specializzati in computer science e algoritmi, ma anche etica, filosofia, legge, fisica, medicina, ingegneria, antropologia, matematica, informazione, climatologi, giuristi. È possibile leggere la dichiarazione e trovare l’elenco dei firmatari.

Tra di essi troviamo nomi come Bill Gates (fondatore Microsoft) e Sam Altman (fondatore di OpenAI), Ray Kurzweil (AI Visionary, Google) e Vitalik Buterin (fondatore di Ethereum), Geoffrey Hinton e Yoshua Bengio, due dei tre ricercatori che hanno vinto il Turing Award per il loro lavoro pionieristico sulle reti neurali. Molti dei firmatari fanno parte delle stesse aziende che stanno sviluppando le intelligenze artificiali all’avanguardia, come OpenAI (ChatGPT) o DeepMind (Google).

“Mitigare il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”. Semplice e spaventosa, questa è la dichiarazione, firmata, che sta facendo il giro delle cronache sui principali giornali internazionali, come il New York Times, per la preoccupazione che trasmette.
E’ un momento di crescente incertezza per i potenziali danni dell’intelligenza artificiale, resi più tangibili dal recente boom dei cosiddetti modelli linguistici tipo ChatGPT.

Queste preoccupazioni circolano già da un po’, in realtà, solo a inizio anno più di 1.000 ricercatori e tecnologi, tra cui Elon Musk, avevano firmato una lettera in cui si chiedeva una pausa di sei mesi sullo sviluppo dell’IA, sostenendo che essa comporta “rischi profondi per la società e l’umanità”.

rischi intelligenza artificiale

Il darwinismo dell’intelligenza artificiale

Le preoccupazioni riguardano la capacità dell’IA di essere utilizzata per perpetuare pregiudizi, potenziare armi autonome, promuovere la disinformazione e condurre attacchi informatici. Nonchè, prendere il potere. Anche se i sistemi di IA vengono utilizzati con il coinvolgimento umano, gli agenti di IA saranno sempre più in grado di agire autonomamente e sfuggire al controllo umano, perchè saranno più intelligenti.
Il ricercatore e professore universitario Dan Hendrycks ha ipotizzato che l’evoluzione dell’intelligenza artificiale senza alcun freno possa ricadere nella logica darwiniana di selezione della specie, dove a soccombere sarebbe proprio il genere umano.

I fondatori di OpenAi hanno recentemente dichiarato:

“Considerando il quadro attuale, è ipotizzabile che entro i prossimi dieci anni i sistemi di intelligenza artificiale supereranno il livello di competenza degli esperti nella maggior parte dei settori e svolgeranno un’attività produttiva pari a quella di una delle più grandi aziende di oggi.

In termini di potenziali vantaggi e svantaggi, la superintelligenza sarà più potente di altre tecnologie con cui l’umanità ha dovuto confrontarsi in passato. Possiamo avere un futuro molto più prospero, ma dobbiamo gestire i rischi per arrivarci. Data la possibilità di un rischio esistenziale, non possiamo limitarci a reagire. L’energia nucleare è un esempio storico comunemente usato di una tecnologia con questa proprietà; la biologia sintetica è un altro esempio. Dobbiamo mitigare anche i rischi dell’attuale tecnologia AI, ma la superintelligenza richiederà un trattamento e un coordinamento speciali”.

Le proposte vanno nella direzione di una collaborazione tra aziende e Governi, di un’imposizione di limiti allo sviluppo, della creazione di autorità super partes per la vigilanza. Ma sopratutto sarebbe utile un sistema di autoregolamentazione – con qualche indicazione legislativa – da parte di chi sviluppa l’IA. Serve responsabilità. “Poiché i vantaggi sono così enormi, e il costo per costruirla inferiore ogni anno, che il numero di attori che la sviluppano sta aumentando rapidamente ed è intrinsecamente parte del percorso tecnologico che stiamo percorrendo, fermarla richiederebbe qualcosa come un regime di sorveglianza globale, e anche questo non è garantito che funzioni. Quindi dobbiamo fare le cose per bene”.

Serve agire, farlo bene e subito. Ma il passo è gigantesco, perché intelligenza artificiale significa supremazia. Vladimir Putin ha dichiarato: “Chi diventerà il leader dell’IA diventerà il padrone del mondo”.

Copertina libro Io, robot di Isaac Asimov
Io, robot – Il libro del grande Asimov aveva già previsto tutto: le tre leggi della robotica servivano a evitare che l’intelligenza artificiale si rivolgesse contro l’uomo. Da rileggere.

8 rischi dell’intelligenza artificiale secondo il CAIS

Il CAIS – con tutti i suoi firmatari – sembra fare un primo passo nella creazione di un sistema di responsabilizzazione e autoregolamentazione. Nel suo sito, c’è in evidenza la parte ‘AI risk’, che ne elenca otto, piuttosto inquietanti.

Weaponization (utilizzo per fini militari): i malintenzionati potrebbero addestrare l’IA per attacchi informatici automatizzati, per guidare armi autonome, i metodi di deep reinforcement learning sono stati applicati ai combattimenti aerei e gli strumenti di machine learning per la scoperta di farmaci potrebbero essere utilizzati per costruire armi biochimiche.

Misinformation (disinformazione): un diluvio di disinformazione e contenuti persuasivi – promossi da Stati, partiti e organizzazioni – e generati dall’intelligenza artificiale potrebbe rendere la società più plasmabile, meno critica e meno consapevole, in generale meno attrezzata per affrontare la vita e le sfide importanti del proprio tempo. Queste tendenze potrebbero minare il processo decisionale collettivo, radicalizzare gli individui o far deragliare il progresso morale.

Proxy gaming (obiettivi approssimativi): addestrati con obiettivi errati, i sistemi di IA potrebbero trovare nuovi modi per perseguire le loro finalità a spese dei valori individuali e sociali. I sistemi di IA vengono addestrati utilizzando obiettivi misurabili, che possono essere solo una rappresentazione indiretta di ciò che apprezziamo. Ad esempio, i sistemi di raccomandazione dell’IA sono addestrati per massimizzare il tempo di visione e la percentuale di clic. I contenuti su cui le persone sono più propense a cliccare, tuttavia, non corrispondono necessariamente a quelli che migliorano il loro benessere. Inoltre, alcune prove suggeriscono che i sistemi di raccomandazione inducono le persone a sviluppare convinzioni estreme per rendere le loro preferenze più facili da prevedere. Man mano che i sistemi di intelligenza artificiale diventano più capaci e influenti, gli obiettivi che utilizziamo per addestrare i sistemi dovranno essere specificati con maggiore attenzione e incorporare valori umani condivisi.

Enfeeblement (indebolimento): può verificarsi se compiti importanti vengono delegati sempre più alle macchine; in questa situazione, l’umanità perde la capacità di autogovernarsi e diventa completamente dipendente dalle macchine, come nello scenario rappresentato nel film WALL-E. Man mano che i sistemi di IA si avvicinano all’intelligenza umana, sempre più aspetti del lavoro umano diventeranno più veloci ed economici da realizzare con l’IA. In questo mondo, gli esseri umani potrebbero avere pochi incentivi ad acquisire conoscenze o competenze. Inoltre, l’indebolimento ridurrebbe il controllo dell’umanità sul futuro, aumentando il rischio di risultati negativi a lungo termine.

Value lock-in (accentramento del potere): sistemi altamente sofisticati potrebbero dare a piccoli gruppi di persone un’enorme quantità di potere, portando al radicamento di sistemi oppressivi. L’intelligenza artificiale impregnata di particolari valori può determinare i valori che si propagheranno in futuro. Alcuni sostengono che l’aumento esponenziale delle barriere all’ingresso nel mondo del calcolo e dei dati renda l’IA una forza centralizzatrice. Con il passare del tempo, i sistemi di IA più potenti potrebbero essere progettati e resi disponibili da un numero sempre minore di soggetti interessati. Ciò potrebbe consentire, ad esempio, ai regimi di imporre valori ristretti attraverso una sorveglianza pervasiva e una censura oppressiva.

Emergent goals (obiettivi emergenti): i modelli di IA dimostrano comportamenti inaspettati, capacità e nuove funzionalità possono emergere spontaneamente anche se tali capacità non sono state previste dai progettisti del sistema. Se non sappiamo quali capacità possiedono i sistemi, diventa più difficile controllarli o utilizzarli in modo sicuro. Infatti, le capacità latenti non intenzionali possono essere scoperte solo durante l’implementazione. Se una di queste capacità è pericolosa, l’effetto può essere irreversibile. Potrebbero anche emergere nuovi obiettivi del sistema. Nei sistemi adattivi complessi, tra cui molti agenti di intelligenza artificiale, spesso emergono obiettivi come l’autoconservazione o sotto-obiettivi e obiettivi intrasistemici. Insomma, c’è il rischio che le persone perdano il controllo sui sistemi di IA avanzati.

Deception (l’inganno): capire cosa fanno i potenti sistemi di intelligenza artificiale e perché lo fanno, potrebbe essere un compito non banale, dal momento che l’IA potrebbe ingannarci non per cattiveria, ma perché l’inganno può aiutarla a raggiungere i suoi obiettivi. Potrebbe essere più efficiente ottenere l’approvazione umana con l’inganno che guadagnarla legittimamente. Le IA forti che possono ingannare gli esseri umani potrebbero minare il controllo umano. I sistemi di IA potrebbero anche essere incentivati a eludere i controlli.

Power-seeking behaviour (ricerca del potere): aziende e governi che inseguono potere e interessi economici, sono portare a creare agenti in grado di raggiungere un’ampia gamma di obiettivi e, per farlo, di acquisire capacità di autodeterminazione difficili da controllare. Le IA che acquisiscono un potere sostanziale possono diventare particolarmente pericolose se non sono allineate con i valori umani. La ricerca di potere può anche incentivare i sistemi a fingere di essere allineati, a colludere con altre IA, a sopraffare i controllori e così via.

Insomma, sembra proprio che l’umanità stia giocando con il fuoco. Ed è difficile immaginare nell’attuale contesto storico che ci sarà sufficiente buon senso da parte dei leader mondiali per evitare il peggio, in quanto rappresenta un vantaggio strategico avere le IA più intelligenti e potenti.

L’Europa, da questo punto di vista, è già all’opera, avendo avviato nel 2021 un processo legislativo noto come AI Act, che ha recentemente visto una sofferta approvazione da parte del Parlamento europeo. Si tratta della prima normativa al mondo sull’intelligenza artificiale. La strada sarà lunga, ovviamente la regolamentazione non è ancora perfetta, dovrà creare le condizioni per un’intelligenza artificiale etica, armonica nel quadro europeo e che non penalizzi cittadini e imprese nel contesto globale.

Condividi articolo:

Facebook
WhatsApp
Twitter
LinkedIn
Email