il MIT teme il bioterrorismo da IA

Da tempo si parla di regolazione delle AI. Mentre in Europa è stato approvato il testo al Parlamento Europeo per questo scopo, ultimamente si parla molto dei rischi, non solo informatici, a cui le Intelligenze Artificiali potrebbero causare. Addirittura si è parlato nei giorni scorsi di selezione naturale e della possibilità che le ultime tecnologie possano portare all’estinzione dell’umanità. Tutto arriva da uno dei propositi di Center for AI Safety, un’organizzazione che ha come scopo la sicurezza dalle AI, sicurezza che potrebbe venire a mancare con il progredire delle Intelligenze Artificiali, senza una adeguata regolamentazione. Nella nuova newsletter, ora si parla di bioterrorismo e coinvolge una ricerca del MIT.

Nel mirino ancora ChatGPT

Il dito è puntato ancora una volta sui dati con cui vengono addestrati i modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT. Secondo una ricerca del Massachusetts Institute of Technology, le Intelligenze Artificiali generative potrebbero democratizzare l’accesso a contenuti che potrebbero istruire gli utenti a creare armi che potrebbero derivare al bioterrorismo. L’esempio riportato dal Center for AI Safety ricorda ad esempio gli attacchi postali con antrace avvenuti dopo l’11 settembre 2001, i quali hanno causato diverse vittime e i cui responsabili non sono stati mai realmente individuati.

Secondo i dati forniti dall’organizzazione, fino al 3% della popolazione circa soffre di disturbi antisociali di personalità. Altri sono invece persuasi da ideologie violente estreme. Il mix di fattori, uniti ad un accesso rapido e facile ad informazioni potenzialmente distruttive, potrebbero rendere ancor meno prevedibili attacchi nefasti ai quali potrebbero seguire un numero consistente di vittime.

Allarmista o “Cassandra”?

Tuttavia Center for Safety AI non vuole apparire come un soggetto allarmista come potrebbe essere un genitore ansioso che vede pericoli ovunque. Infatti nella e-mail vengono condivise proposte per evitare che questo scenario oscuro possa avverarsi, attraverso sistemi di IA più sicuri. Ad esempio si potrebbe rimuovere informazioni su patogeni che potrebbero portare a conseguenze catastrofiche. Alcune strategie adottate hanno portato al “rifiuto” dei grandi modelli linguistici a rispondere a certe domande, tuttavia alcuni prompt jailbreak, hanno permesso agli utenti di accedere ai contenuti potenzialmente dannosi.

Insomma, le preoccupazioni di Center for AI Safety sono sì plausibili ed è necessario rendere le Intelligenze Artificiali più sicure, ed i governi mondiali e gli enti, seppur con una certa cautela, si stanno muovendo in tal senso. Ma la motivazione dell’organizzazione non è tanto il tipo di contenuto a cui è possibile accedere, ma la facilità con cui è possibile accedervi. Gli esempi riportati non hanno riportato la quantità di informazioni potenzialmente lesive diffuse nel Dark Web. Ma non è certo semplice (e popolare) accedervi come con soluzioni come ChatGPT. La realtà, come giustamente riferito dall’organizzazione, è che gli atti che portano a violenza sono già difficilmente prevedibili. Una persona particolarmente motivata, non è certo scoraggiata dalla difficoltà di recuperare informazioni potenzialmente dannose per un numero considerevole di persone. Ma non per questo deve essere tralasciata una soluzione che possa inibire l’accesso a determinate informazioni. Tuttavia è anche utopistico credere che con una maggior diffusione di tale tecnologia, si possa evitare utilizzi malevoli. Basti pensare proprio alla deriva del Dark Web.

Aiutaci a crescere: lasciaci un like :)

Giornalista pubblicista, SEO Specialist, fotografo. Da sempre appassionato di tecnologia, lavoro nell'editoria dal 2010, prima come fotografo e fotoreporter, infine come giornalista. Ho scritto per PC Professionale, SportEconomy e Corriere della Sera, oltre ovviamente a Smartphonology.