"L'ultimo Tweet dell'umanità" è un meme virale degli ultimi giorni.

Gli esperti chiedono 6 mesi di pausa nello sviluppo AI

I progressi nel campo dell’Intelligenza Artificiale si intensificano di giorno in giorno, con aziende e startup che immettono sul mercato nuovi strumenti, anche grazie alla spinta di OpenAI, che ha preso alla sprovvista anche Google. In particolare Microsoft su tutte sta cavalcando l’onda della novità. Solo oggi ha infatti introdotto un nuovo prodotto che prevede l’Intelligenza Artificiale al servizio della sicurezza informatica. Ora però un gruppo di esperti di Intelligenza Artificiale, dirigenti del settore e volti noti della tecnologia, hanno richiesto sei mesi di pausa nello sviluppo di sistemi più potenti di GPT-4, appena lanciato da OpenAI. Le motivazioni? Potenziali rischi per la società e l’umanità.

Sei mesi di stop per prepararsi

La richiesta è stata inserita in una lettera pubblicata dall’organizzazione senza scopo di lucro Future of Life Institute, ed è stata firmata da più di mille persone. L’obiettivo è quello di ottenere protocolli di sicurezza condivisi per i vari progetti di IA, che possano essere verificati da esperti indipendenti. Oltre al nome altisonante del numero 1 di Twitter e Tesla, molte le autorevoli firme del documento. Tra questi il CEO di Stability AI, i ricercatori di DeepMind di Google e pionieri e “padrini” dell’Intelligenza Artificiale, quali Yoshua Bengio e Stuart Russel oltre al co-fondatore di Apple Steve Wozniak.

Nello specifico, i rischi sottolineati dall’istituto riguardano potenziali rischi per la società e la civiltà derivati dai sistemi di intelligenza artificiale competitiva, sotto forma di interruzioni economiche e politiche. Inoltre gli sviluppatori nel documento vengono esortati a collaborare con i responsabili politici sulla governance e sulle autorità di regolamentazione. Ma i firmatari del documento non sono gli unici ad essere preoccupati per i potenziali e preoccupanti rischi a cui l’Intelligenza Artificiale potrebbe esporre la società. L’Europol infatti ha recentemente evidenziato come strumenti come ChatGPT sia alle volte utilizzato nei tentativi di phishing, disinformazione e criminalità informatica.

"L'ultimo Tweet dell'umanità" è un meme virale degli ultimi giorni.
Un meme virale delle ultime settimane: “L’ultimo tweet dell’umanità”.

Il rischio AGI

I ricercatori sono impegnati nella creazione di una AGI, ovvero un’Intelligenza Artificiale Generale. Si tratta di uno strumento in grado di comprendere e apprendere concetti e compiti intellettuali, caratteristica di animali e umani. Le preoccupazioni dei ricercatori di Future of Life Institute sono conservate nei vari documenti pubblicati sul proprio sito web. Si parla di robot assassini o IA che cercano di perseguire uno scopo in buona fede, ma che potrebbe vedere una sorta di resistenza umana, come un ostacolo da superare. Oppure, potrebbe cercare di raggiungere un obiettivo, non rendendosi conto che potrebbe danneggiare chi ha richiesto di raggiungere lo scopo: ad esempio, attualmente si chiede all’IA di elaborare un testo. Ma potrebbe arrivare il giorno in cui si chiede all’IA di portarci all’aeroporto. Ma potrebbe esistere la possibilità di mettere in pericolo passeggeri e passanti, perché non ha elaborato i dati in modo sicuro. Questo non dovrebbe accadere quando le IA sono progettate dall’uomo, ma se in futuro esistesse un’IA in grado di progettarne un’altra, senza le dovute attenzioni relative alla sicurezza?

Elon Musk ha sempre espresso i suoi dubbi sull’IA con ironia.

Ad ogni modo la superintelligenza potrebbe essere pronta tra decenni, ma non è un buon motivo, secondo l’organizzazione, di non essere attenti a possibili o potenziali pericolose derive, che potrebbero portare anche al controllo degli esseri umani, come riportato dall’infografica sottostante. Basti pensare alle recenti preoccupazioni pubblicate su Nature relative alla capacità dell’IA di manipolare le emozioni umane.

Eccesso di preoccupazione o troppi film?

Che sia un eccesso di preoccupazione, scaturita da troppi film degli anni ’80 e ’90, oppure una lecita preoccupazione socio-economica, non è dato saperlo. Quanto è possibile toccare con mano è la rapida evoluzione e il determinante impatto che queste tecnologie negli ultimi mesi hanno avuto è però rilevante. Basti pensare ad esempio all’indagine che abbiamo pubblicato poco tempo fa, in cui è emerso che alcune aziende preferirebbero l’impiego di ChatGPT, anziché l’intelletto umano. Tuttavia, se al momento l’IA ha portato dei problemi a creativi, scrittori, ma anche un supporto alle aziende e alla sicurezza informatica, d’altro canto i sistemi di guida autonoma, al netto di qualche incidente iniziale, che ha portato a danni rilevanti in termini di vite umane.

Quale che sia l’origine dei timori di Future of Life Institute, servono sei mesi di tempo, in modo che i governi possano provvedere ad istituire una moratoria. Come riporta l’ente, non viene richiesta “una pausa nello sviluppo dell’IA in generale, ma semplicemente un passo indietro dalla pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti“. I modelli black-box in informatica, come riporta Wikipedia, è un sistema simile ad una scatola nera ovvero non è noto a priori né ciò che contiene né come si comporta. Insomma, secondo l’istituto è il momento giusto di agire. Ma quanti accoglieranno la sua richiesta e quanti invece ne approfitteranno? Nell’attesa, riguardiamoci Terminator.

Aiutaci a crescere: lasciaci un like :)

Giornalista pubblicista, SEO Specialist, fotografo. Da sempre appassionato di tecnologia, lavoro nell'editoria dal 2010, prima come fotografo e fotoreporter, infine come giornalista. Ho scritto per PC Professionale, SportEconomy e Corriere della Sera, oltre ovviamente a Smartphonology.