“immaginiamo un futuro e immaginarlo ci inorridisce. Non la temeranno. Finché non la capiranno. E non la capiranno finché non l’avranno usata. La teoria arriva fino ad un certo punto. Non so se meritiamo fiducia per un’arma simile. Ma non abbiamo scelta”. Sono queste le parole che accompagnano il trailer di Oppenheimer, il nuovo film di Christopher Nolan a breve nelle sale cinematografiche, che vede protagonista la star di Peaky Blinders, Cillian Murphy. Se non fosse che il film di Nolan narra del Progetto Manhattan e che portò alle bombe atomiche, potrebbe essere tranquillamente associato alle preoccupazioni di una nutrita quantità di persone esperte di tecnologia, attorno al rapido progresso dell’Intelligenza Artificiale.
Intelligenza Artificiale ed estinzione
Poco meno di ventiquattr’ore fa, sui media di tutto il mondo è rimbalzata la notizia che associa le parole Intelligenza Artificiale ed estinzione. L’altolà arriva dall’organizzazione Center for AI Safety che, nel proprio Statement (firmato tra gli altri da Sam Altman CEO di OpenAI e Demis Hassabis, CEO di Google DeepMind) dichiara che “Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare“.
Scenari che non possono che riportare a film sci-fi come Terminator di qualche decennio addietro. Ma più passano i giorni, più i discorsi attorno a questa tecnologia assumono toni sempre più drammatici. Certo è che se si trattasse con la stessa preoccupazione il cambiamento climatico, avremmo un problema in meno di cui preoccuparci. Ma cosa sta succedendo in questi mesi che fa tanto preoccupare gli esperti?
I timori degli esperti
Di sicuro i timori che affliggono uno delle più autorevoli voci e promotori in questione, ovvero Sam Altman, non possono rassicurare. I libri di storia in futuro parleranno del CEO di OpenAI al pari di big della tecnologia che hanno rivoluzionato il mondo moderno, come ad esempio Mark Zuckerberg o di uno dei papà di Internet, Tim Bernes-Lee. ChatGPT, il capolavoro di Altman, ha già rivoluzionato in pochi mesi il modo di lavorare, ma ha anche creato un terremoto nel mondo del lavoro, in positivo e in negativo. Negli USA ad esempio un lavoro su quattro è minacciato dall’Intelligenza Artificiale (mentre il PIL sembra al sicuro), il 26% delle aziende UE “assumerebbe” ChatGPT, mentre il 40% delle aziende italiane si è già avvalsa di soluzioni basate sull’AI, a dispetto dei rischi. Anche la scienza è in balia delle numerose conseguenze negative, ma anche quelle positive che ha apportato nelle scoperte scientifiche, a partire dall’Astronomia e dalla ricerca spaziale, la ricerca di vita intelligente extraterrestre, nuove proteine, o la prevenzione dei disastri.
La necessità di una regolamentazione
A cascata si sono scatenate preoccupazioni, ricerche e indagini. Più volte Altman ha riferito di essere preoccupato per gli impatti negativi che potrebbero avere sviluppi malevoli dell’IA. Altman ha precisato che le sue preoccupazioni riguardano principalmente “problemi di disinformazione o shock economici” e non una “superintelligenza” algoritmica. Tuttavia, ha espresso preoccupazioni significative riguardo all’IA in diverse occasioni recenti. Ad esempio, in un’intervista con ABC News, ha affermato di temere che OpenAI non sarà l’unica creatrice di questa tecnologia e che ci saranno altri che non applicheranno gli stessi limiti di sicurezza.
Più volte il numero uno di OpenAI ha ammesso di temere la tecnologia che la sua stessa azienda sta sviluppando, ma ritiene che non sia giusto ridicolizzarlo per questa sua paura. Durante un recente episodio del podcast di Lex Fridman, Altman ha dichiarato: “Trovo strano quando la gente pensa che sia una gran cosa che io dica, ho un po’ di paura. E penso che sarebbe folle non averne un po’, e capisco le persone che ne hanno molta“. La tecnologia sviluppata da OpenAI è alla base delle recenti implementazioni di Microsoft, che si avvale di una versione modificata di ChatGPT per Bing e di DALL-E2 per Microsoft Designer, o per il suo software di cybersicurezza. Mentre la casa di Redmond parla di algoretica insieme ad IBM e alle principali religioni monoteistiche, recentemente Sam Altman è apparso a metà maggio del 2023 per un’audizione presso una sottocommissione del Senato degli Stati Uniti. Il motivo del suo intervento era prendere parte alla discussione per sollevare l’attenzione sul bisogno di regolamentazione dell’AI.
Manipolazioni e conseguenze
Il suo obiettivo era mettere in luce le potenzialità manipolative dell’AI, sostenendo che queste tecnologie potrebbero influenzare o prevedere l’opinione pubblica, in particolare in relazione alle elezioni presidenziali del prossimo anno. Un argomento che però è sempre a rischio, Intelligenza Artificiale o no. Basti pensare allo scandalo Cambridge Analytica, che ha influito sulle elezioni che hanno portato Donald Trump alla presidenza statunitense, e che ha coinvolto Facebook. Ma le elezioni sono solo un esempio, la preoccupazione circa le potenzialità manipolative è stata sollevata in tempi recenti anche da Nature, sebbene fosse più generale e meno politica. In particolare, gli autori della ricerca in questione, hanno preso in considerazione la possibilità che i chatbot possano manipolare gli esseri umani, ad esempio con le emoticon.
La richiesta del CEO di OpenAI è di una urgente regolamentazione governativa dell’Intelligenza Artificiale. Secondo Altman, sarebbero necessarie linee guida sulla trasparenza per le aziende che operano nell’AI, tra cui la sua stessa creatura. Le sue parole al Congresso sono state eloquenti: “Se questa tecnologia si sviluppa in modo errato, le conseguenze potrebbero essere molto gravi“. Altman ha inoltre espressamente manifestato la volontà di collaborare con il governo per prevenire tali scenari. Neanche due mesi fa alcuni esperti di tecnologia hanno chiesto almeno sei mesi di pausa nello sviluppo delle Intelligenze Artificiali. Tra questi nomi altisonanti, come il numero uno di Twitter, Tesla e SpaceX, Elon Musk, Steve Wozniak. Anche Geoffrey Hinton, considerato il padrino dell’IA ha recentemente lasciato Google, a causa del rapido progresso dei chatbot basati su IA. Non tutti condividono l’opinione di Altman e colleghi. Eric Schmidt, ex CEO di Google, ha argomentato che l’industria dell’AI dovrebbe essere lasciata autoregolarsi. Ma al momento sembra una voce fuori dal coro.
I danni più noti (e recenti) dell’IA
Per ora i danni causati dall’Intelligenza Artificiale (almeno quelli conosciuti) hanno colpito chi non è riuscito a “maneggiarla” con tutte le precauzioni del caso, come si fa con un’arma. Ma ha anche portato a delle vittime, che hanno subito danni al patrimonio. Ad esempio Google ha bruciato in un giorno 100 miliardi di dollari per un errore della sua IA, Bard. Mentre di recente un avvocato, Steven Schwartz, sta ora subendo le conseguenze dopo aver prelevato informazioni in ambito legale da ChatGPT per una causa contro una compagnia aerea. Informazioni rivelatesi poi completamente false e inventate di sana pianta da ChatGPT, come succede con le allucinazioni. Inoltre altri sono stati colpiti dalle truffe che utilizzano l’AI per clonare la voce di altre persone per convincere i più esposti ai pericoli a consegnare denaro o preziosi.
Le linee guida vigenti
Tornando alla questione sollevata da Altman, in realtà esistono già delle linee guida per regolamentare l’AI. L’UE, agendo d’anticipo, ha pubblicato nel 2019 un documento a riguardo, che delinea un approccio etico alla tecnologia che ha lo scopo di promuovere un’IA affidabile. Il documento sottolinea l’importanza della trasparenza, della privacy, della diversità, della non discriminazione e dell’accountability. Rileva che un’IA affidabile dovrebbe rispettare tutti i diritti fondamentali applicabili, essere tecnologicamente robusta e sicura, e le sue implicazioni dovrebbero essere comprensibili per gli esseri umani. Il documento sottolinea anche il principio della supervisione umana, affermando che gli esseri umani devono sempre avere il controllo sull’IA
Anche gli Stati Uniti hanno qualcosa di assimilabile. Nel gennaio del 2020, la Casa Bianca ha pubblicato i “Principi di Regolamentazione dell’Intelligenza Artificiale degli Stati Uniti“, un documento che fornisce un insieme di orientamenti per le agenzie di regolamentazione nell’approccio all’IA. Questi principi includono la promozione dell’innovazione e della crescita dell’IA, la sicurezza e la protezione del pubblico, l’uso di approcci basati sul rischio e la non regolamentazione, e l’apertura, la trasparenza e l’imparzialità. Dunque delle linee guida e delle regolamentazioni, seppur acerbe, esistono già.
Ad essere educati e sensibilizzati dovrebbero essere i fruitori della tecnologia, ma anche gli stessi sviluppatori. Ad inizio articolo abbiamo accostato il monologo di Oppenheimer alle preoccupazioni degli stessi circa l’Intelligenza Artificiale. Esistono regolamentazioni per (quasi) tutte le armi, ma non è pensabile poter avere il controllo sull’utilizzo che chiunque possa fare di esse. Lo stesso team del Progetto Manhattan conosceva le potenzialità della bomba atomica. E anche il mondo intero, dopo Hiroshima e Nagasaki.
Leave a Reply